Magnus Fragor

Главная » 2023 » Сентябрь » 4 » Искусственный интеллект научился обманывать другие нейросети и деградировать из-за этого
00:23
Искусственный интеллект научился обманывать другие нейросети и деградировать из-за этого

Ученые из Университетов Оксфорда и Кембриджа опубликовали научную статью о рисках распространения контента, созданного искусственным интеллектом (ИИ).

Согласно исследованию, большие языковые модели (LLM) представляют серьезную угрозу друг другу. Возможно, впоследствии они начнут выдавать менее качественные ответы, поскольку учатся на данных открытых интернет-ресурсов, генерируемых другими ИИ.

Феномен назвали «model collapse» (коллапс модели). Другие специалисты из Стэнфорда и Университета Райса назвали его «Model Autography Disorder» (расстройство самозаписи модели). Джатан Садовский, австралийский исследователь, также ввел свой термин – «Габсбургский ИИ».

Точных прогнозов пока нет, но эксперты считают, что из-за «самопожирающего» цикла развития LLM выявлять источники учебной информации станет в разы сложнее. Рэй Ванг, генеральный директор компании Constellation Research, считает, что «для открытого интернета в скором времени наступят темные времена».

По словам Ванга, может произойти, что достоверные источники начнут ограничивать доступ к своему контенту, внедрять платные подписки. Компания NewsGuard, находящая фейки, недавно обнаружила в сети 452 ненадежных ресурса с ИИ-генерируемыми новостями. Многие специалисты подтверждают: детекторы контента, такие как ZeroGPT и Text Classifier от OpenAI, недостаточно надежны.

Просмотров: 28 | Добавил: laf2304 | Рейтинг: 0.0/0
Всего комментариев: 0
avatar
[ Поиск ]

[ Вход на сайт ]

календарь новостей ]

архив новостей ]

[ Статистика ]

Онлайн всего: 6
Гостей: 6
Пользователей: 0

Copyright ARA © 2024
uCoz