Уряд США розширює AI 845

Уряд США розширює кількість постачальників AI та переосмислює роль Anthropic

Як технології штучного інтелекту змінюють військову стратегію США

США активно розширюють перелік технологічних компаній, що постачають штучний інтелект (AI) для оборонних цілей. Нещодавно Пентагон уклав угоди з Microsoft, Reflection AI, Amazon і Nvidia, дозволяючи використовувати їхні продукти у засекречених операціях. Ці компанії приєднуються до вже відомих OpenAI, xAI та Google, які Міністерство оборони може використовувати “для будь-якого законного використання”.

Ця фраза “будь-яке законне використання” стала причиною суперечки між Anthropic AI та урядом США. Засновник компанії, Дейріус Амодей, висловив невдоволення, що це дозволяє уряду США використовувати технології Anthropic для нагляду за цивільним населенням та створення автономної зброї. Після цього Пентагон скасував контракт з компанією на суму 200 мільйонів доларів, що призвело до судового позову з боку Anthropic.

Пентагон заявляє, що продовжить розробляти архітектуру, яка запобігатиме прив’язці до одного постачальника AI і гарантуватиме гнучкість для об’єднаних сил. Нові технології нададуть військовим необхідні інструменти для дій з упевненістю і захисту нації від будь-якої загрози. Методики штучного інтелекту будуть застосовані для даних рівня шість (секретно) і сім (найвищий рівень секретності), що допоможе створити “AI-first fighting force”.

На даний момент, використання генеративного штучного інтелекту з боку Пентагона зосереджено на не конфіденційних завданнях, таких як складання документів та дослідження. Нові постачальники допоможуть “оптимізувати роботу з даними” та “підвищити розуміння ситуації й підтримати ухвалення рішень у складних оперативних середовищах”. Але незрозуміло, чи включають ці описання використання всередині країни.

Це розширення списку постачальників AI для військових та сил безпеки США робить їх менше залежними від зміни позицій окремих вендорів. Минулі випадки звільнення співробітників Google та Amazon за протест проти використання їхньої технології у військових цілях підтверджують важливість цього кроку.

Anthropic’s Claude AI використовувався для роботи над секретним матеріалом за допомогою інструментарію Palantir’s Maven, який зараз можуть замінити нові підписанти. Модель компанії Mythos активно використовується Агенцією національної безпеки для кіберзахисту. Загалом 40 організацій оцінюють технологію Mythos, з них лише 12 названо, включаючи UK’s MI5 та US NSA.

Згідно з Axios, адміністрація США може змінити своє відношення до Anthropic. За словами джерела в Білому домі, адміністрація шукає способи “зберегти обличчя та повернути їх назад”. Модель Claude від Anthropic і далі використовується урядовими організаціями в умовах конфіденційності.

Білий дім підкреслює, що уряд США “продовжує активно співпрацювати з владою та індустрією для захисту нашої країни та американського народу, в тому числі через роботу з високотехнологічними AI лабораторіями”.

Схожі записи