Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Стоимость топлива резко повышают. Что говорят о ценах на него в «Белоруснефти»
  2. «Уже зае**ло одно и то же». Масштабная проверка боеготовности по заказу Лукашенко закончилась, но людей до сих пор держат на полигонах
  3. «Он не разбился». Чемпион Беларуси по мотокроссу умер в 17 лет
  4. Литовец приехал в Беларусь навестить родственников и получил 15 лет лишения свободы — Dissidentby
  5. Могут ли власти аннулировать паспорта уехавших, как сейчас делают это с экс-политзаключенными? Позвонили в МВД
  6. Мобильные операторы вводят изменения для клиентов
  7. В обращении появятся 50 рублей весьма необычной формы — если вам выдадут сдачу ими, то не удивляйтесь
  8. Вынесли приговор одному из руководителей ювелирного бренда Belaruskicry, объявленного «экстремистским формированием»
  9. Не любил Париж, описал беларусскую мечту, спасал людей от НКВД. Объясняем в 5 пунктах, каким был этот классик на самом деле
  10. Лукашенко до сих пор не может забыть и простить американского миллиардера, которого видел 30 лет назад. Вот что между ними произошло
  11. «Совет мира» вместо Белого дома. Почему Трамп понизил формат встречи с Лукашенко?
  12. «Хотят закрыть дыру, удержать людей в здравоохранении». Медик о том, почему в медвузы страны больше не будут набирать платников
  13. В Польше проверяют беларусского оппозиционера, который оказался в центре крупного скандала. Его биография не сходится с документами


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.