Усложнение больших языковых моделей приведет к ухудшению их работы. В перспективе нейросети переживут процесс «дебилизации», если разработчики не оставят идею о расширении их «эрудированности», уверен один из ведущих отечественных и мировых специалистов в области компьютерных технологий академик Российской академии наук Игорь Каляев.
По мнению эксперта, процесс «дебилизации» будет обусловлен стремление разработчиков научить свои модели разбираться сразу во всех темах. В ближайшее время ответы нейросетей могут серьезно ухудшиться.
– С одной стороны, усложнение моделей LLM (большие языковые модели, на этой основе построен к примеру ChatGPT) ведет к их все более широкой «эрудированности» по различным вопросам. Но, с другой стороны, профессиональное качество ответов на эти вопросы серьезно снижается. Это как в науке - ученый не может быть профессионалом во всех областях знаний, и чем в более узкой области он специализируется, тем профессиональнее он разбирается в ней. <…> «Дебилизация» ИИ по мере усложнения моделей будет все явственнее проявляться, и это может стать серьезной проблемой в их использовании, – сказал Каляев в беседе с ТАСС в кулуарах Петербургского международного экономического форума (ПМЭФ).