Кубанские Новости

Искусственный интеллект «дебилизирует», если разработчики продолжат его развивать

Искусственный интеллект «дебилизирует», если разработчики продолжат его развивать
Фото: stock.adobe.com
Академик Игорь Каляев считает, что ответы языковых моделей крупнейших ИТ-компаний в перспективе значительно ухудшатся из-за стремления разработчиков научить свои программные продукты разбираться во всем.

Усложнение больших языковых моделей приведет к ухудшению их работы. В перспективе нейросети переживут процесс «дебилизации», если разработчики не оставят идею о расширении их «эрудированности», уверен один из ведущих отечественных и мировых специалистов в области компьютерных технологий академик Российской академии наук Игорь Каляев.

По мнению эксперта, процесс «дебилизации» будет обусловлен стремление разработчиков научить свои модели разбираться сразу во всех темах. В ближайшее время ответы нейросетей могут серьезно ухудшиться.

– С одной стороны, усложнение моделей LLM (большие языковые модели, на этой основе построен к примеру ChatGPT) ведет к их все более широкой «эрудированности» по различным вопросам. Но, с другой стороны, профессиональное качество ответов на эти вопросы серьезно снижается. Это как в науке - ученый не может быть профессионалом во всех областях знаний, и чем в более узкой области он специализируется, тем профессиональнее он разбирается в ней. <…> «Дебилизация» ИИ по мере усложнения моделей будет все явственнее проявляться, и это может стать серьезной проблемой в их использовании, – сказал Каляев в беседе с ТАСС в кулуарах Петербургского международного экономического форума (ПМЭФ).

Мы используем cookies для улучшения работы нашего сайта и большего удобства его использования. Продолжая использовать сайт, Вы выражаете своё согласие на обработку файлов cookies
OSZAR »