- Использование LLM (языковых моделей) в образовании вызывает опасения у родителей.
- Многие родители не видят главных рисков использования ChatGPT детьми.
- Дети используют ИИ для выполнения домашних заданий, что приводит к снижению их успеваемости.
- В школе учителя не контролируют использование ИИ, что приводит к фрагментарным знаниям учеников.
- На экзаменах ученики используют ИИ, что может привести к снижению среднего балла и увольнению учителей.
- Умные дети используют ИИ правильно, но большинство детей теряют когнитивные навыки из-за привычки получать готовые ответы.
- ИИ может оправдать прогулы и невыполненные задания, что приводит к потере ответственности у детей.
- Психологические риски использования ИИ включают галлюцинации, эмоциональную ловушку и зависимость от общения с моделью.
- Родители должны контролировать содержание и длину чатов с ИИ, научить детей правильно работать с ИИ и не использовать его как психолога.
Вот три правила, которые стоит внедрить дома, пока не поздно:
- ИИ — это лжец. Вбейте ребенку в голову: чат-бот — это генератор текста, а не энциклопедия. Он может придумать факт, дату или закон физики. Любую информацию оттуда нужно перепроверять в Google или учебнике.
- Запрещать ИИ сложно и похоже уже бесполезно. Попробуйте договориться: сначала черновик и решение ребенок делает сам (пусть криво, с ошибками). И только потом загружает в ИИ с запросом: «Найди ошибки» или «Объясни, как улучшить». Так ИИ становится репетитором, а не исполнителем. Если не помогает, тогда только запрет на использование.
- Следите, чтобы ребенок не использовал ИИ как психолога. Модель не имеет сознания, она просто подстраивается под текст. Советы бота в личных вопросах могут быть не просто бесполезными, но и крайне опасными, так как уводят ребенка от реальности.