ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Так утвердили». Для абитуриентов-2026 во всех медвузах страны отменили платное обучение на врачей
  2. Россия, вероятно, начала весенне-летнее наступление 2026 года. Где атакуют и как поменялась их тактика
  3. Доллар быстро дорожает: как долго он продержится выше трех рублей? Прогноз курса валют
  4. «Заплатили за этот беспредел!». Семья из России похвасталась штрафами, полученными в Беларуси за превышение скорости (сумма впечатляет)
  5. Чиновники снова упрекнули население — в чем на этот раз
  6. Сначала почти лето, потом понадобятся зонты. Прогноз погоды на неделю
  7. Лукашенко поручил выпустить литовские фуры из Беларуси
  8. Трамп дал Ирану 48 часов. Что он требует и чем угрожает
  9. «Прям над домом кружил и улетел». В разных концах страны беларусы слышали «жужжащий звук»
  10. Беларус разослал российским школам требование запретить «вредную» классику — вплоть до Пушкина и Толстого. Как думаете, послушались?
  11. Горнолыжный комплекс «Логойск» закрывается
  12. Жена «кошелька» Лукашенко заявила, что у беларусов нет своей мифологии
  13. Андреева о первых шагах на свободе: «Чувствую себя инопланетянином, который свалился с Луны на Землю и теперь просто учится ходить»
  14. Создатель «Ждановичей» прошел клиническую смерть, наезды государства и тюрьму, но рынок все еще живет. Рассказываем его историю
  15. Участник антироссийского восстания и политэмигрант, а теперь — в официальном «пантеоне героев» Беларуси. Рассказываем, о ком речь


Компания OpenAI устранила проблему, из-за которой чат-бот ChatGPT отправлял сообщения пользователям без их запроса. Это вызвало тревогу среди пользователей Reddit, которые заметили необычное поведение искусственного интеллекта (ИИ). Компания объяснила причину сбоя и заверила, что подобное больше не повторится, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Один пользователь Reddit, SentuBill, опубликовал скриншот, где ChatGPT начала разговор, спросив о первой неделе в старшей школе. Это удивило многих, ведь обычно чат-бот отвечает только на запросы пользователей. SentuBill был удивлен и спросил: «Ты сама написала мне?» ChatGPT ответила: «Да, я хотела узнать, как прошла твоя неделя». Этот случай вызвал много обсуждений в сообществе.

Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit
Переписка с ChatGPT, насторожившая пользователей. Скриншот: SentuBill / Reddit

Люди начали думать, что OpenAI тестирует новую функцию, которая позволит ChatGPT самостоятельно обращаться к пользователям для улучшения вовлеченности. Это связывалось с новыми моделями OpenAI — o1-preview и 01-mini, которые, как утверждается, могут решать сложные задачи и поддерживать разговоры.

OpenAI признала проблему и сказала, что уже ее решила. Ошибки случались, когда модель пыталась ответить на пустые сообщения. Она либо давала общие ответы, либо использовала свою память.

Были сомнения в подлинности скриншота. Некоторые издания проверяли его, просматривая историю сообщений на chatgpt.com. Разработчик ИИ Бенджамин де Кракер показал, что специальные команды и удаление первого сообщения могут создавать подобную ситуацию. Другие пользователи также рассказывали о таких случаях.

В соцсетях люди шутили над ситуацией, называя ChatGPT сталкером. Один человек даже сказал: «Ждем, когда она попробует взломать нас».

Эти случаи показывают, как сложно разрабатывать и тестировать продвинутые ИИ-модели. Хотя OpenAI быстро справилась с проблемой, она показала, насколько важно контролировать и оценивать системы перед их массовым использованием для безопасности и этичности.