На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

AdIndex

3 314 подписчиков

Свежие комментарии

  • Сергей Заболотин
    Ну у kgm самый выигрышный слоган, 70 лет на рынке, другим компаниям далеко до таких цифр!)Как брендам звуча...
  • Ольга Кожемякина
    Автор, когда научитесь писать по-русски?! Противно читать про всякие Франчайзи, Subway, ребрендинг, SBW, AdIndex, Su...Франчайзи Subway ...
  • Олег Поветьев
    Вам фото прислать с покупочки гнилая картошка по 90 рублей и фрукты с овощами без вкуса?Владелец «Пятероч...

Специалисты OpenAI обнаружили токсичное поведение в моделях ИИ

Сотрудники OpenAI провели исследование и выяснили, что в моделях ИИ

появляются несогласованные моменты. В основном они кажутся людям случайными,

бессвязными, однако исследователи обнаружили в них закономерности, пишет

TechCrunch.

По данным издания, такие особенности в целом соответствуют токсичному

поведению в ответах. Это значит, что искусственный интеллект может обманывать

или давать информацию, которая не соответствует запросу. При этом пока

специалисты OpenAI могут сами повышать или понижать количество таких

ответов.

Эти исследования проводятся для выявления небезопасных сценариев поведения

ИИ. Акцент сделан на том, чтобы исключить их. Тем не менее пока специалисты

компании не могут до конца понять, почему искусственный интеллект начинает

лгать.

 

Ссылка на первоисточник
наверх