Поддержать команду Зеркала
Беларусы на войне
  1. В кинотеатрах страны покажут фильм пропагандиста Азаренка. В «Беларусьфильм» его назвали «поистине уникальным произведением»
  2. В Витебске десятки домов остались без отопления ночью в морозы. Аварию устранили к утру
  3. Беларуска открыла визу и отправилась в поездку, но не учла важную деталь, из-за которой могла остаться на пару часов на «нейтралке»
  4. Лукашенко дал прогноз на конец зимы. Синоптики с ним не согласны
  5. В США заявили, что контроль над Донецкой областью — единственный нерешенный вопрос на мирных переговорах. В Кремле не согласны — ISW
  6. Джеффри Эпштейн получал визы в Беларусь и, скорее всего, посещал страну. Он якобы даже собирался купить квартиру в Минске
  7. Очень, очень, очень холодно. Синоптик рассказал, какой будет погода в Беларуси на предстоящей неделе
  8. Мария Колесникова ответила, поддерживает ли она по-прежнему Светлану Тихановскую
  9. «Возможно, сотрудничает со спецслужбами». Чемпион Польши по боксу внезапно уехал в Беларусь (он родом из Лиды), бросив даже свои награды
  10. Беларуска рассказала, что получила «повестку за неуборку снега» вокруг авто
  11. Пара сняла «бабушатник» и преобразила его за 700 долларов. Хозяева увидели результат и подняли аренду
  12. Ночью в воздушное пространство Польши залетели «объекты из Беларуси». Их отслеживали военные
  13. Золушка современной Беларуси. Как логопед из Шклова оказалась на верхушке империи развлечений, зарабатывающей миллионы
  14. Коронация откладывается. Арина Соболенко второй год подряд проиграла в финале Открытого чемпионата Австралии — рассказываем главное


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.