ИИ может принимать иррациональные решения, аналогичные человеческим
К такому выводу пришли ученые из Канады и Австралии, проанализировав поведение языковых моделей GPT-3.5 и GPT-4

Они протестировали системы по 18 видам когнитивных предубеждений, известных психологии, и установили, что почти в половине случаев ИИ опирался не на объективные данные, а на искаженные установки, пишет сайт МИР24.
Несмотря на логичность рассуждений, модели повторяли ошибки, свойственные людям.
В числе выявленных предубеждений — неприятие риска, переоценка собственных возможностей и эффект обладания. При ответах на гипотетические бизнес-сценарии GPT-4 показал лучшие результаты в задачах с точными расчетами, но в субъективных ситуациях склонялся к нерациональным решениям. Он также проявил сильную приверженность к определенности, предпочитая гарантированную выгоду риску.
Исследователи объяснили такие результаты тем, что ИИ обучается на текстах, написанных людьми, а потому перенимает их мышление и когнитивные ошибки. В неоднозначных задачах он действует скорее как человек, чем как строго логичная система. Поэтому, считают авторы, нейросети хорошо подходят для стандартных заданий, но при сложных решениях требуют участия человека.