Искусственный интеллект Google выявляет когнитивный сбой человека

0 1

Искусственный интеллект Google выявляет когнитивный сбой человека

Людям легко принять складную речь за умную мысль.

Когда вы читаете предложение, подобное этому, ваш прошлый опыт заставляет вас поверить, что оно написано мыслящим, думающим человеком. И в этом случае это действительно так. Но в наши дни некоторые предложения, которые кажутся удивительно похожими на человеческие, на самом деле генерируются системами искусственного интеллекта, которые были обучены на огромном количестве человеческого текста.

Люди настолько привыкли считать, что беглая и грамотная речь исходит от мыслящего человека, что доказательства обратного могут быть трудны для понимания.

Как люди могут ориентироваться на этой относительно неизведанной территории? Из–за стойкой тенденции ассоциировать свободное выражение с беглым мышлением естественно – но потенциально ошибочно — думать, что если модель искусственного интеллекта может свободно выражать себя, это означает, что она также думает и чувствует, как люди.

В результате, возможно, неудивительно, что бывший инженер Google недавно заявил, что система искусственного интеллекта Google LaMDA обладает чувством собственного достоинства, поскольку она может красноречиво генерировать текст о своих предполагаемых чувствах.

Это событие и последующее освещение в средствах массовой информации привели к появлению ряда справедливо скептических статей и сообщений о том, что вычислительные модели человеческого языка являются разумными, то есть способными мыслить, чувствовать и переживать.

Вопрос о том, что означало бы для модели искусственного интеллекта быть разумной, на самом деле довольно сложен, и наша цель в этой статье — не решать его. Но как исследователи языка, мы можем использовать нашу работу в области когнитивной науки и лингвистики, чтобы объяснить, почему людям слишком легко попасть в когнитивную ловушку, предполагая, что существо, которое может свободно использовать язык, является сознательным или разумным.

Использование искусственного интеллекта для создания человекоподобного языка

Текст, сгенерированный с помощью таких моделей, как LaMDA от Google, может быть трудно отличить от текста, написанного человеком.

Это впечатляющее достижение является результатом десятилетней программы по созданию моделей, генерирующих грамматический, осмысленный язык.

Ранние версии, датируемые по крайней мере 1950-ми годами, известные как n-граммные модели, просто подсчитывали вхождения определенных фраз и использовали их, чтобы угадать, какие слова, вероятно, будут встречаться в определенных контекстах.

Например, легко понять, что “арахисовое масло и джем”* — более вероятная фраза, чем “арахисовое масло и ананасы”. Если у вас достаточно текста (на английском языке), вы будете видеть фразу “арахисовое масло и джем” снова и снова, но, возможно, никогда не увидите фразу “арахисовое масло и ананасы”.


* арахисовое масло и джем  — Peanut butter and jelly sandwich – бутерброд с арахисовой пастой и джемом, ставший классикой Американской культуры.


Авторы:

  • Кайл Маховальд, доцент лингвистики, Техасский университет в Остинском колледже гуманитарных наук
  • Анна Иванова, кандидат наук в области мозга и когнитивных наук, Массачусетский технологический институт 
Источник: ab-news.ru
Оставить комментарий

Мы используем файлы cookie. Продолжив использование сайта, вы соглашаетесь с Политикой использования файлов cookie и Политикой конфиденциальности Принимаю

Privacy & Cookies Policy