Учёные из США доказали, что крупные языковые модели, «накормленные» популярным, но низкокачественным контентом из соцсетей, теряют способность логически мыслить и запоминать информацию. Об этом сообщает Wired.
Что выяснили исследователи
Команда учёных из Техасского университета в Остине, Texas A&M и Университета Пердью обнаружила: если большие языковые модели (LLM) обучать на вирусных, но поверхностных публикациях из социальных сетей, они переживают своеобразное «разложение мозга». Это явление напоминает эффект, знакомый каждому, кто проводил часы в бесконечном скроллинге соцсетей.
«Мы живём в эпоху, когда информации становится всё больше, а внимания — всё меньше. Большая часть контента создаётся не ради истины или глубины, а ради кликов», — объясняет Джуньюань Хон, доцент Национального университета Сингапура, который работал над исследованием, будучи аспирантом UT Austin.
Как проходил эксперимент
Учёные использовали две открытые языковые модели — Llama от Meta и Qwen от Alibaba.
Им «подавали» разные типы текстов: от нейтральных до популярных постов из соцсетей, содержащих эмоциональные слова вроде «вау», «смотри», «только сегодня».
После этого исследователи оценили результаты по нескольким показателям.
«Мозговое увядание» у ИИ
Модели, которые «потребляли» контент низкого качества, продемонстрировали снижение когнитивных способностей:
- хуже выполняли логические задачи,
- имели слабую память,
- проявляли меньшую этическую согласованность,
- а также признаки «психопатического» поведения.
Результаты оказались схожими с предыдущими исследованиями, которые показали, что низкокачественный онлайн-контент негативно влияет на человеческое мышление. Символично, что само слово «brain rot» («разложение мозга») стало словом года по версии Оксфордского словаря в 2024 году.
Почему это тревожный сигнал для индустрии
По мнению Хона, эти результаты важны для разработчиков искусственного интеллекта:
«Может показаться, что использование вирусного контента помогает масштабировать обучающие данные, но на самом деле это постепенно разрушает способность модели рассуждать, различать добро и зло и удерживать внимание на сложных темах».
Особую опасность представляет то, что сегодня ИИ сам активно создаёт контент для соцсетей, который часто направлен лишь на привлечение внимания. Со временем этот материал возвращается в систему — как обучающие данные для новых моделей.
Исследователи также отметили, что «очистить» модели после такого обучения практически невозможно: повторное обучение не возвращает им первоначального качества.
«Чем больше искусственно созданного “мусора” распространяется в соцсетях, тем сильнее он заражает данные, на которых будут обучаться будущие ИИ», — предупреждает Хон. — «Наши результаты показывают: когда начинается это “разложение мозга”, даже чистые данные уже не способны полностью его исправить».
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.























