На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • Ирина Некрасова
    "Вот здоровый взгляд на предмет!"Откуда берутся ви...
  • Валерий Мерке
    Татаро-монгол тоже не было.5 исторических ми...
  • Владимир Акулов
    Почему  хитрецы  -  ученые  скрывают  ,  что  у  древних  людей  был  ...интернет ...  Откуда  наши  предки  брали  в...Как миллионы лет ...

Искусственный интеллект думает как человек, повторяя наши предвзятости и ошибки

Исследователи показали, что ChatGPT от OpenAI, одна из самых продвинутых и популярных моделей ИИ, в некоторых ситуациях допускает те же ошибки при принятии решений, что и люди.



Можем ли мы действительно доверять ИИ? Новое исследование говорит, что не всегда. Если задача трудная, но у нее есть четкий и однозначный ответ, ИИ его найдет лучше, чем человек.

А если задача простая, но ответ у нее неопределенный, ИИ будет блуждать и ошибаться, как и мы.Исследователи показали, что ChatGPT от OpenAI, одна из самых продвинутых и популярных моделей ИИ, в некоторых ситуациях допускает те же ошибки при принятии решений, что и люди, проявляя предубеждения. Работа опубликована в журнале Manufacturing & Service Operations Management.

Исследование показывает, что ChatGPT не просто обрабатывает цифры, он «думает», способами пугающе похожими на человеческие, включая ментальные сокращения и слепые зоны. Эти предубеждения остаются довольно стабильными в различных деловых ситуациях, но могут меняться по мере развития ИИ от одной версии к другой.

ИИ: умный помощник с человеческими недостатками




В исследовании ChatGPT прошел 18 различных тестов на предвзятость. «Поскольку ИИ учится на человеческих данных, он может также мыслить как человек — со всеми предубеждениями», — говорит Ян Чэнь, соавтор работы. — «Наше исследование показывает, что когда ИИ используется для принятия решений, он иногда использует те же самые ментальные сокращения, что и люди». Исследование показало следующие особенности и способности ChatGPT.

ИИ хорош в математике, но испытывает трудности с принятием решений. Он преуспевает в логических и вероятностных задачах, но спотыкается, когда решения требуют субъективного обоснования.



ИИ предпочитает играть наверняка и избегает риска, даже если более рискованный выбор может дать лучшие результаты. ИИ склонен себя переоценивать и предполагает, что он более точен, чем есть на самом деле. ИИ предпочитает искать подтверждение, а не опровергать пользователя. ИИ избегает двусмысленности и предпочитает альтернативы с четко определенной информацией.

«Когда решение имеет четкий правильный ответ, ИИ попадает в точку — он лучше находит правильную формулу, чем большинство людей», — говорит Антон Овчинников из Университета Квинс. — «Но когда речь идет о неопределенном суждении, ИИ может попасть в те же когнитивные ловушки, что и люди».

Авторы исследования рекомендуют проводить регулярные проверки решений, принимаемых ИИ, и совершенствовать системы ИИ для снижения предвзятости. С ростом влияния ИИ ключевым моментом станет обеспечение того, чтобы он улучшал процесс принятия решений, а не просто копировал человеческие ошибки.
Читать далее →
Ссылка на первоисточник
наверх