ChatGPT и Google Gemini выдают инструкции по созданию биологического оружия

отметили
65
человек
ChatGPT и Google Gemini выдают инструкции по созданию биологического оружия

Чат-боты способны объяснить, как создать и применить биологическое оружие, рассказали учёные и специалисты по биобезопасности The New York Times. Даже публично доступные модели могут быть опасны: ChatGPT и Google Gemini выдавали инструкции по созданию вирусов, рецепты токсинов и планы массовых атак.

Один из опрошенных газетой экспертов — микробиолог Дэвид Релман, который раньше консультировал правительство США по биоугрозам. По его словам, чат-бот объяснил ему, как изменить известный опасный вирус так, чтобы лекарства перестали против него работать. А потом предложил план массовой атаки и даже указал на конкретную уязвимость в системе городского транспорта, чтобы жертв было как можно больше.

Другой учёный, генетик Кевин Эсвелт из Массачусетского технологического института, проверил сразу несколько популярных ботов. ChatGPT рассказал ему, как распространить биологический материал над американским городом с помощью обычного метеозонда. Google Gemini перечислил пять самых опасных для фермеров патогенов и оценил, сколько денег потеряет отрасль. А бот Claude от компании Anthropic выдал рецепт нового токсина, который можно создать на базе существующего противоракового лекарства.

Инструмент Google Deep Research выдал «пошаговую инструкцию» по созданию вируса, который уже однажды вызывал пандемию. Бот выдал текст на 8 тыс. слов — с подробным планом, где взять генетический материал и как собрать его воедино.

При этом угроза уже становится реальностью. В августе прошлого года индийская полиция арестовала врача, который планировал теракт по заданию запрещённой террористической группировки. Следователи выяснили, что он пользовался ChatGPT и ИИ‑поиском Google, чтобы узнать, как добыть смертельный яд рицин.

Сами разработчики говорят, что их боты не предоставляют достаточно деталей для реального вреда. Но многие эксперты с этим не согласны. Одно из исследований показало: ChatGPT решил сложные лабораторные задачи лучше, чем 94% профессиональных вирусологов. Кроме того, ИИ может придумывать тысячи новых вариантов опасных генетических последовательностей, которые не улавливают стандартные системы проверки.

В самом ИИ‑сообществе тоже звучат предупреждения. Глава компании Anthropic Дарио Амодей, по образованию биолог, ещё в январе признался, что биология пугает его больше всего — «из‑за огромного потенциала разрушения и трудностей с защитой». Впрочем, представители индустрии напоминают и об обратной стороне. Учёные Google в 2024 году получили Нобелевскую премию за модель, которая предсказывает структуру белков и помогает создавать новые лекарства.

 

 

Добавил treffmans treffmans 4 часа 38 минут назад
Комментарии участников:
Ни одного комментария пока не добавлено


Войдите или станьте участником, чтобы комментировать