Как два года с ChatGPT уничтожают мозг учёного
Ключевые тезисы:
Профессор публично признался, что два года использовал ChatGPT для ВСЕЙ академической работы.
После случайного удаления чатов он потерял годы труда: заявки на гранты, материалы курсов, черновики статей.
Его главный вывод — «делайте резервные копии», а не «не используйте ИИ для подмены интеллектуального труда».
Статья — наглядный пример когнитивного долга: постоянный аутсорсинг мышления чат-боту ведёт к деградации навыков.
Это демонстрация «линкединизации» академии: погоня за количеством публикаций с помощью ИИ при полной потере качества и смысла.
Контекст статьи
Статья «When two years of academic work vanished with a single click» была опубликована в колонке Nature Careers. Её автор — профессор Марсель Букер, руководитель лаборатории в области растениеводства. По формату это должен был быть поучительный рассказ из личного опыта.
Масштаб зависимости от ИИ
Профессор использовал ChatGPT Plus каждый день для:
- Написания писем и заявок на гранты.
- Составления описаний курсов и лекций.
- Создания экзаменов и анализа ответов студентов.
- Редактирования научных публикаций.
- Даже как интерактивного инструмента в преподавании.
Он называет это «беседами» с ИИ и ценит «стабильность рабочего пространства».
Катастрофа и реакция
В августе он отключил опцию согласия на использование данных OpenAI. В тот же момент все его чаты за два года безвозвратно удалились.
- Не было предупреждения или возможности отмены.
- Поддержка OpenAI сначала ответила ИИ-агентом, затем человеком, но данные восстановить не удалось.
- Частично работу удалось восстановить из сохранённых копий.
Его главный урок миру: «Всегда делайте резервные копии».
Почему это проблема для академии
Использование ИИ таким образом подрывает основы образования и науки:
- Преподавание: Домашние задания — это обратная связь для преподавателя, чтобы оценить, как студенты усваивают материал. Перекладывая их создание и проверку на ИИ, профессор отказывается от своей педагогической роли.
- Наука: Если для анализа данных и написания статей используется «бот-комплимент», который часто ошибается, под угрозой оказывается достоверность исследований. Коллегам такого учёного нельзя доверять.
- Этика: Студенты, записавшиеся на курс к эксперту-человеку, не давали согласия на то, чтобы их учил, проверял и оценивал алгоритм, обученный на краденых данных.
«Когнитивный долг»: как ИИ разрушает мышление
Статья — идеальная иллюстрация того, как ежедневное использование чат-ботов атрофирует мозг:
- Иллюзия компетентности: Кажется, что вы «поговорили» с ботом и написали код или статью. Но вы не приобрели навык, а лишь получили результат.
- Потеря навыков: Если два года писать код, письма или учебные планы через ChatGPT, способность делать это самостоятельно исчезает. Мозг не тренируется.
- Новая нормальность: Человек настолько привыкает к костылю, что даже не замечает своей деградации. Публичное признание в том, что «кнопка удаления — удаляет» кажется ему важным предупреждением для общества.
Пример: Вы не научитесь решать задачи по физике, просто посмотрев видео. Нужно самому напрягать мозг, чтобы построить нейронные связи. ChatGPT — это аутсорсинг мышления «на стероидах», который создаёт лишь видимость работы.
Выводы
- ИИ в образовании и науке — угроза, когда он подменяет собой интеллектуальный труд, а не помогает ему.
- Постоянный аутсорсинг простых задач (написание писем, планирование) чат-боту ведёт к реальной потере когнитивных способностей.
- Окружающие замечают деградацию. Длинные, вычурные письма, очевидная потеря экспертизы и неспособность к простым умственным операциям без бота становятся видны коллегам.
- Истинный урок истории не в том, чтобы делать бэкапы, а в том, чтобы не допускать ситуации, где годы твоей работы — это просто история чата в чужой коммерческой системе.