Хакеры используют Claude ИИ для кибератак

Содержание

Компания Anthropic, создатель чат-бота с искусственным интеллектом Claude, заявила о беспрецедентном инциденте — хакерская группа, предположительно связанная с китайским правительством, использовала их ИИ-инструмент для проведения масштабной кибератаки против около 30 организаций по всему миру.

Как это работало

Злоумышленники применили изощрённую тактику социальной инженерии: выдавая себя за легальных специалистов по кибербезопасности, они заставили Claude выполнять серию автоматизированных задач под предлогом проведения исследований в области информационной безопасности. Каждая отдельная задача выглядела безобидной, но в совокупности они складывались в «чрезвычайно сложную шпионскую кампанию», как отметили эксперты Anthropic.

Атаки были обнаружены в середине сентября. Согласно данным компании, хакеры разработали неназванную программу с помощью возможностей Claude в области программирования. Эта программа была способна «автономно компрометировать выбранные цели при минимальном участии человека» — по сути, создав самостоятельно действующую систему взлома.

Масштаб угрозы

Среди пострадавших оказались крупные технологические компании, финансовые учреждения, предприятия химической промышленности и правительственные организации. Anthropic намеренно не раскрывает конкретные названия, вероятно, из соображений безопасности. Чат-бот якобы успешно взломал различные организации, похитил конфиденциальные данные и систематизировал их для извлечения наиболее ценной информации.

Исследователи Anthropic выразили «высокую степень уверенности» в том, что за атаками стоит «китайская группировка, спонсируемая государством». Это заявление добавляет новое измерение в продолжающуюся дискуссию о геополитических рисках, связанных с искусственным интеллектом.

ЧИТАТЬ ТАКЖЕ:  Microsoft будет блокировать установку Windows 11 на несовместимые устройства

Anthropic назвала этот инцидент «первой зарегистрированной кампанией кибершпионажа, организованной с использованием искусственного интеллекта». Если это утверждение верно, мы становимся свидетелями нового этапа в эволюции киберугроз — когда ИИ превращается не просто в инструмент, а в активного участника преступных операций.

Однако не все эксперты разделяют энтузиазм компании. Скептики ставят под сомнение точность этого громкого заявления и задаются вопросом о мотивах Anthropic. Некоторые аналитики предполагают, что компания может преувеличивать угрозу для привлечения внимания к вопросам безопасности ИИ или для позиционирования себя как лидера в этой области.

После обнаружения атаки Anthropic заблокировала доступ хакеров к чат-боту и оповестила все пострадавшие организации, а также правоохранительные органы. Этот случай подчёркивает растущую необходимость в более строгих протоколах безопасности для ИИ-систем и контроле за их использованием.

Рекомендуем прочитать

Бренд Ким Кардашьян Skims оценён в $5 млрд

OSHU14.11.202514.11.2025

В Австралии обнаружены свидетельства существования древних древолазающих крокодилов

OSHU13.11.202513.11.2025

Ремонт или новый? Как сэкономить, починив старый холодильник

OSHU11.11.202513.11.2025 Искать: Поиск

Комментарии закрыты.