Лаборатория OpenAI создала нейросеть, которую сама же считает весьма опасной - «Технологии» » Электроника сегодня.
Лаборатория OpenAI создала нейросеть, которую сама же считает весьма опасной - «Технологии»
Исследовательская лаборатория OpenAI открыла доступ к полной версии нейросети «GPT-2», предназначенной для генерации осмысленного текста на произвольные темы. Она была готова еще в феврале, но разработчики оказались настолько впечатлены результатами активности своего детища, что просто побоялись

Лаборатория OpenAI создала нейросеть, которую сама же считает весьма опасной - «Технологии»
✔ Технологии стоят у истоков любого изобретения. Благодаря им появляются новые устройства и материалы. В этом разделе вы найдете информацию о самых интересных технологиях современного хайтек мира.
Лаборатория OpenAI создала нейросеть, которую сама же считает весьма опасной - «Технологии»


Исследовательская лаборатория OpenAI открыла доступ к полной версии нейросети «GPT-2», предназначенной для генерации осмысленного текста на произвольные темы. Она была готова еще в феврале, но разработчики оказались настолько впечатлены результатами активности своего детища, что просто побоялись выпускать его в мир. Было представлено несколько урезанных версий ИИ, чтобы посмотреть, как Интернет-сообщество на них отреагирует, и главное – как будет применять.


Нейросеть GPT-2 прошла обучение на 8 млн. текстов из Интернета и умеет быстро и точно распознавать суть написанного, чтобы сделать выводы и продолжить текст. Например, ей достаточно броского заголовка, чтобы написать текст «сенсационной» новости, которую многие примут за правду. ИИ умеет работать с литературными приемами, с техническими текстами, он пишет стихи и может поддерживать беседу, составляя развернутые ответы на вопросы.


Опасения экспертов вызвало то, насколько убедительно выглядят тексты от GPT-2. ИИ не умеет лгать в прямом смысле, у него нет злого умысла, но он мастерски жонглирует словами, чтобы составлять весомо звучащие фразы. Конечно, у нейросети хватает и уязвимых мест – например, ей не под силу выстроить длинный сюжет, она работает только с небольшими по объему текстами. Или может допустить грубую ошибку, неверно интерпретировав название неизвестного ей предмета.


В итоге было принято решение по принципу «клин клином вышибают» – вместо того, чтобы прятать GPT-2, разработчики дали полный доступ к ИИ, чтобы все желающие могли лично протестировать нейросеть. Чем больше людей с ней познакомится, тем более осведомленными, а значит и менее уязвимыми, они станут. И тогда применение ИИ в корыстных целях уже не будет иметь столь разрушительных последствий.

Источник — OpenAI

{full-story limit="10000"}
Ctrl
Enter
Заметили ошЫбку?
Выделите текст и нажмите Ctrl+Enter
Мы в
Комментарии
Минимальная длина комментария - 50 знаков. комментарии модерируются
Комментариев еще нет. Вы можете стать первым!


Смотрите также
интересные публикации