
Исследование компании Giskard, которая занимается созданием комплексного бенчмарка для оценки моделей искусственного интеллекта, выявило интересный парадокс: если попросить чат-бот отвечать как можно короче, вероятность возникновения «галлюцинаций» у него возрастает.
Специалисты отмечают, что такая особенность особенно выражена у наиболее продвинутых систем - например, GPT-4o от OpenAI, Mistral Large и Claude 3.7 Sonnet. При требовании быть лаконичными эти модели чаще допускают ошибки и выдают неточные данные.
...
Читать дальше »