Парадокс Клода: как «левый» ИИ наводит ракеты

отметили
23
человека
Компания Anthropic, основанная выходцами из PayPal, разрабатывает искусственный интеллект Claude, который используется в системах наведения американских ракет. Это создаёт парадоксальную ситуацию, когда ИИ, обученный на принципах безопасности и этики, применяется в военных целях.Основателем компании является Даниэль Гросс, чья карьера началась в PayPal. Позже он сотрудничал с Apple, а затем создал Anthropic вместе с другими исследователями, обеспокоенными безопасностью ИИ.Компания позиционирует себя как создатель «безопасного и честного» искусственного интеллекта. Её флагманская разработка, ИИ Claude, создавалась с акцентом на этические принципы и снижение рисков.Однако теперь эта технология интегрируется в системы военного назначения Пентагона. ИИ помогает обрабатывать данные для повышения точности наведения высокоточного оружия.Такое применение ставит под вопрос изначальные этические установки разработчиков. Возникает противоречие между декларируемыми ценностями и практическим использованием технологии в военной сфере.Этот случай демонстрирует, как передовые гражданские технологии могут быть адаптированы для решения задач в области обороны. Подобная интеграция, вероятно, будет становиться всё более распространённой практикой.
Добавил ТелегаПресс ТелегаПресс 12 Апреля
Комментарии участников:
Ни одного комментария пока не добавлено


Войдите или станьте участником, чтобы комментировать