ИИ оказался таким же самоуверенным и предвзятым, как и человек
Искусственный интеллект и мозг человека работают, а, значит, и принимают решения по-разному. Но новое исследование показало, что даже самые продвинутые ИИ-системы страдают теми же иррациональными предубеждениями и когнитивными искажениями, что и люди. Ученые из Канады и Австралии проверили работу языковых моделей GPT-3.5 и GPT-4 на предмет 18 широко известных когнитивных искажений, которые характерны для человеческого мышления. В почти половине протестированных сценариев ИИ оказался таким же склонным к ошибочным суждениям, как и человек: он был слишком самоуверенным, избегал риска и демонстрировал эффект обладания, при котором люди ценят вещи, которыми уже обладают, выше, чем те, что им еще не принадлежат. Эта работа стала первым систематическим анализом когнитивных искажений у крупных языковых моделей. Оказалось, что несмотря на кажущуюся логичность и последовательность, ChatGPT не застрахован от ошибок, присущих человеческому мышлению. Особенно ярко эта черта проявляется в ситуациях, когда у задачи нет однозначного математического решения. В условиях неопределенности GPT-4 часто склонялся к «безопасному» выбору, причем оказалось что он еще более привержен к определенности, чем сам человек.

Искусственный интеллект и мозг человека работают, а, значит, и принимают решения по-разному. Но новое исследование показало, что даже самые продвинутые ИИ-системы страдают теми же иррациональными предубеждениями и когнитивными искажениями, что и люди.
Ученые из Канады и Австралии проверили работу языковых моделей GPT-3.5 и GPT-4 на предмет 18 широко известных когнитивных искажений, которые характерны для человеческого мышления. В почти половине протестированных сценариев ИИ оказался таким же склонным к ошибочным суждениям, как и человек: он был слишком самоуверенным, избегал риска и демонстрировал эффект обладания, при котором люди ценят вещи, которыми уже обладают, выше, чем те, что им еще не принадлежат.
Эта работа стала первым систематическим анализом когнитивных искажений у крупных языковых моделей. Оказалось, что несмотря на кажущуюся логичность и последовательность, ChatGPT не застрахован от ошибок, присущих человеческому мышлению. Особенно ярко эта черта проявляется в ситуациях, когда у задачи нет однозначного математического решения. В условиях неопределенности GPT-4 часто склонялся к «безопасному» выбору, причем оказалось что он еще более привержен к определенности, чем сам человек.