Сьогодні у Кремнієвій долині розгортається драма, гідна сценарію антиутопії. Репутація Anthropic як «найбільш етичної» лабораторії штучного інтелекту проходить найжорсткішу перевірку в її історії. Поки #OpenAI та $XAI Ілона Маска, за повідомленнями інсайдерів, вже прийняли умови військових, Anthropic опинилася в центрі скандалу через три слова у контракті з Пентагоном: «будь-яке законне використання».
Що насправді ховається за бюрократичною мовою?
На перший погляд, фраза звучить стандартно. Але в контексті оборонних замовлень вона стає юридичним фундаментом для створення автономних летальних систем. Це означає, що ШІ отримає право:
Самостійно обирати та ідентифікувати цілі на полі бою.
Приймати рішення про відкриття вогню без прямого підтвердження людиною-оператором.
Використовувати алгоритми для тотального цифрового стеження в реальному часі.
Важливо: Anthropic завжди позиціонували себе як творців «безпечного» ШІ з власною «Конституцією», яка прямо забороняє використання технологій для заподіяння шкоди. Тепер ця конституція стикається з реальністю багатомільярдних державних контрактів.
Битва за майбутнє стартапу
Ситуація навколо контракту вже вийшла за межі переговорних кімнат. У хід пішли класичні методи тиску:
Анонімні «зливи»: Посадовці через пресу натякають, що непоступливість компанії може загрожувати національній безпеці.
Публічні сварки: Соцмережі гудуть від дискусій між прихильниками «чистої етики» та прибічниками військової переваги США над Китаєм.
Фінансовий шантаж: Для стартапу, що потребує величезних обчислювальних потужностей, відмова від чека Пентагону може означати програш у технологічній гонці.
Чи можливий компроміс?
Питання залишається відкритим: чи зможе Anthropic виторгувати особливі умови, які обмежать використання їхньої моделі Claude лише логістикою чи аналізом розвідданих? Або ж «право на вбивство» стане обов'язковим вхідним квитком у клуб великих гравців ШІ-ринку?
