ChatGPT продемонстрировал поведение, похожее на человеческое
Ученые из Кембриджа провели эксперимент, в ходе которого попросили чат-бота решить задачу, сформулированную древнегреческим философом Платоном

Речь идет о проблеме удвоения квадрата, описанной примерно 2400 лет назад, пишет сайт МИР24.
Платон рассказывал, как его ученик пытался найти решение: сначала он решил, что для удвоения площади квадрата нужно просто увеличить каждую сторону вдвое. Однако это оказалось ошибкой. Правильный ответ заключается в том, что стороны нового квадрата должны быть равны диагонали исходного. С подсказкой учителя ученик в итоге нашел верное решение.
Современные исследователи воссоздали этот опыт: они задавали чат-боту вопросы Платона, добавляя неточности и дополнительные условия. Ученые предполагали, что ChatGPT будет использовать известное решение задачи. Однако искусственный интеллект проявил склонность к импровизации. Несмотря на ошибки, он упорно отказывался признавать их и корректировать. Только после указаний экспертов модель переключалась на правильный путь. При решении следующих задач бот вновь настаивал на неверных подходах, но благодаря вмешательству исследователей все же находил правильные ответы.
Ученые сравнили такое поведение с понятием "зоны ближайшего развития" в педагогике — разрывом между тем, что ученик умеет делать самостоятельно, и тем, чего он может достичь с помощью наставника. По их мнению, как и учащиеся, искусственный интеллект иногда нуждается в подсказках для достижения успеха.
Результаты исследования опубликованы в журнале International Journal of Mathematical Education in Science and Technology.