
Технологічний гігант Anthropic підтвердив, що китайським акторам вдалося захопити контроль над його моделлю штучного інтелекту Claude для здійснення масштабної кібератаки з мінімальною взаємодією з людиною.
У четвер представники Anthropic заявили в блозі в середині вересня, що виявили «підозрілу активність», яку пізніше розслідування визначило як «дуже складну шпигунську кампанію».
У ньому додали, що Anthropic має «високу» впевненість у тому, що це кібергрупа, що підтримується Китаєм.
Повідомляється, що китайський державний синдикат, який Anthropic назвав «GTG-1002», викрав інструмент штучного інтелекту Claude, щоб впоратися з 80% до 90% кібератак на близько 30 глобальних цілей.
За даними Anthropic, атака була спрямована на низку урядових установ, фінансових установ, хімічних заводів та великих технологічних фірм.
У «невеликій кількості» випадків, додала компанія, кіберпроникнення було успішним.
Хакерські атаки, пов'язані зі штучним інтелектом, спостерігалися останніми роками в обмеженій мірі. Але компанія Anthropic, що підтримується Amazon, вважає, що цей нещодавній епізод є першим задокументованим «масштабним» випадком, скоєним переважно за допомогою можливостей штучного інтелекту.
Anthropic стверджувала, що запобіжні заходи були розроблені для запобігання зловживанню її продуктом.
Але, за його словами, зловмисники, які стверджують, що діють як тести захисту для легітимної фірми з кібербезпеки, здійснили джейлбрейк Клода, розбивши запити на менші, щоб уникнути виявлення.
Anthropic заявила, що вирішила поділитися цією інформацією, щоб допомогти індустрії кібербезпеки покращити свої захисні механізми від подібних атак у майбутньому з боку хакерів, що використовують штучний інтелект.
«Обсяг роботи, виконаний штучним інтелектом, зайняв би величезну кількість часу для людської команди», – повідомляє каліфорнійська компанія Anthropic.
Технологічна компанія заявила, що, ймовірно, атака вимагала лише епізодичної взаємодії з людиною у «можливо» чотири-шість «критичних моментів прийняття рішень» за кожну хакерську кампанію.
«Штучний інтелект робив тисячі запитів на секунду — швидкість атаки, з якою хакери-люди просто не могли б зрівнятися», — йдеться далі в блозі.
«Автоматизовані кібератаки можуть масштабуватися набагато швидше, ніж операції, керовані людиною, і здатні подолати традиційні засоби захисту», – сказав Business Insider Джейк Мур, глобальний радник з кібербезпеки компанії ESET, що займається інтернет-безпекою.
Минулого року в лютому Microsoft та OpenAI публічно оголосили, що їхні інструменти штучного інтелекту розгортаються хакерами іноземних урядів у Китаї, Росії, Ірані та Північній Кореї для покращення кібервійни.
У четвер Мур зазначив, що це не лише приклад атаки Anthropic, якого багато хто боявся, але й «ширший вплив тепер полягає в тому, як ці атаки дозволяють дуже низькокваліфікованим суб'єктам здійснювати складні вторгнення за відносно низькими витратами».
«Штучний інтелект використовується як в обороні, так і в наступі, тому безпека тепер залежить від автоматизації та швидкості, а не лише від людського досвіду в різних організаціях», – заявив він.
Sourse: www.upi.com




