Експерти Кремнієвої долини спростовують оптимізм прихильників безпеки штучного інтелекту
Експерти Кремнієвої долини спростовують оптимізм прихильників безпеки штучного інтелекту

Експерти Кремнієвої долини спростовують оптимізм прихильників безпеки штучного інтелекту

Лідери Кремнієвої долини, включаючи "царя Білого дому" зі штучного інтелекту та криптовалют Девіда Сакса та директора зі стратегії OpenAI Джейсона Квона, цього тижня викликали ажіотаж в Інтернеті своїми коментарями щодо груп, які пропагують безпеку штучного інтелекту. В окремих випадках вони стверджували, що деякі прихильники безпеки штучного інтелекту не такі доброчесні, як здаються, і діють або у власних інтересах, або ж як мільярдери-ляльководи за лаштунками.

Групи з питань безпеки штучного інтелекту, які поспілкувалися з TechCrunch, кажуть, що звинувачення Sacks та OpenAI є останньою спробою Кремнієвої долини залякати своїх критиків, але точно не першою. У 2024 році деякі венчурні компанії поширювали чутки про те, що законопроєкт Каліфорнії про безпеку штучного інтелекту SB 1047 відправить засновників стартапів у в'язницю. Інститут Брукінгса назвав ці чутки одним із багатьох « перекручень » щодо законопроєкту, але губернатор Гевін Ньюсом зрештою все одно наклав на нього вето.

Незалежно від того, чи мали Сакс та OpenAI на меті залякати критиків, їхні дії вже достатньо налякали кількох захисників безпеки штучного інтелекту. Багато лідерів некомерційних організацій, з якими TechCrunch звернувся минулого тижня, попросили висловитися на умовах анонімності, щоб вберегти свої групи від помсти.

Ця суперечка підкреслює зростаючу напруженість у Кремнієвій долині між відповідальним створенням штучного інтелекту та його перетворенням на масовий споживчий продукт — тему, яку ми з колегами Кірстен Коросек та Ентоні Ха розкриваємо у цьому тижні у подкасті Equity . Ми також заглиблюємося у новий закон про безпеку штучного інтелекту, прийнятий у Каліфорнії для регулювання чат-ботів, та підхід OpenAI до еротики в ChatGPT.

У вівторок Сакс опублікував пост на X, стверджуючи, що Anthropic, яка висловила занепокоєння щодо здатності штучного інтелекту сприяти безробіттю, кібератакам та катастрофічній шкоді суспільству, просто залякує, щоб домогтися прийняття законів, які принесуть користь їй самій та заглушать менші стартапи паперовою обробкою. Anthropic була єдиною великою лабораторією штучного інтелекту, яка підтримала законопроєкт Сенату Каліфорнії 53 (SB 53 ), законопроєкт, що встановлює вимоги до звітності про безпеку для великих компаній, що займаються штучним інтелектом, який був підписаний минулого місяця.

Сакс відповідав на вірусне есе співзасновника Anthropic Джека Кларка про його побоювання щодо штучного інтелекту. Кларк виголосив есе як промову на конференції з безпеки Curve AI у Берклі кілька тижнів тому. Сидячи в аудиторії, воно, безумовно, виглядало як щира розповідь про застереження технолога щодо його продуктів, але Сакс так не сприймав.

Сакс сказав, що Anthropic використовує «складну стратегію захоплення регуляторних органів», хоча варто зазначити, що справді складна стратегія, ймовірно, не передбачала б створення ворога з федерального уряду. У наступному дописі на X Сакс зазначив, що Anthropic «послідовно позиціонує себе як ворога адміністрації Трампа».

Також цього тижня головний стратегічний директор OpenAI Джейсон Квон написав пост на X, у якому пояснив, чому компанія надсилає повістки некомерційним організаціям, що займаються безпекою штучного інтелекту, таким як Encode, некомерційна організація, яка виступає за відповідальну політику щодо штучного інтелекту. (Повістка – це судовий наказ, що вимагає документи або свідчення). Квон сказав, що після того, як Ілон Маск подав до суду на OpenAI – через побоювання, що розробник ChatGPT відхилився від своєї некомерційної місії – OpenAI вважала підозрілим те, що кілька організацій також висловили опозицію до її реструктуризації. Encode подав записку amicus curiae на підтримку позову Маска, а інші некомерційні організації публічно висловилися проти реструктуризації OpenAI.

«Це викликало питання прозорості щодо того, хто їх фінансував і чи була якась координація», – сказав Квон.

Цього тижня NBC News повідомило, що OpenAI надіслала Encode та шістьом іншим некомерційним організаціям широкі повістки , які критикували компанію, з проханням надати їхні повідомлення, пов'язані з двома найбільшими опонентами OpenAI, Маском та генеральним директором Meta Марком Цукербергом. OpenAI також звернулася до Encode з проханням надати повідомлення, пов'язані з підтримкою SB 53.

Один відомий лідер у сфері безпеки штучного інтелекту розповів TechCrunch, що між командою OpenAI з питань урядових справ та її дослідницькою організацією зростає розкол. Хоча дослідники безпеки OpenAI часто публікують звіти, що розкривають ризики систем штучного інтелекту, політичний підрозділ OpenAI лобіював проти SB 53, заявивши, що він волів би мати єдині правила на федеральному рівні.

Керівник відділу узгодження місій OpenAI Джошуа Ахіам висловився про те, що його компанія надсилає повістки некомерційним організаціям, у публікації на X цього тижня.

«Можливо, це ставить під загрозу всю мою кар’єру, але я скажу: це не здається чудовим», – сказав Ахіам.

Брендан Штайнхаузер, генеральний директор некомерційної організації з безпеки штучного інтелекту Alliance for Secure AI (до якої OpenAI не викликала повістку до суду), розповів TechCrunch, що OpenAI, видається, переконана, що її критики є частиною змови під керівництвом Маска. Однак він стверджує, що це не так, і що значна частина спільноти безпеки штучного інтелекту досить критично ставиться до практик безпеки xAI, або, можливо, до їх відсутності .

«Зі сторони OpenAI це має на меті змусити критиків замовкнути, залякати їх та відмовити інші некомерційні організації робити те саме», – сказав Штайнхаузер. «Щодо Сакса, то, на мою думку, він стурбований тим, що рух [за безпеку штучного інтелекту] зростає, і люди хочуть притягнути ці компанії до відповідальності».

Шрірам Крішнан, старший радник Білого дому з питань політики штучного інтелекту та колишній генеральний партнер a16z, цього тижня долучився до розмови власним дописом у соціальних мережах , назвавши прихильників безпеки ШІ відірваними від реальності. Він закликав організації, що займаються безпекою ШІ, спілкуватися з «людьми в реальному світі, які використовують, продають та впроваджують ШІ у своїх домівках та організаціях».

Нещодавнє дослідження Pew показало, що приблизно половина американців більше стурбовані, ніж захоплені штучним інтелектом, але неясно, що саме їх турбує. Інше недавнє дослідження заглибилося в це питання більш детально та виявило, що американських виборців більше хвилюють втрати робочих місць та діпфейки, ніж катастрофічні ризики, спричинені штучним інтелектом, на яких значною мірою зосереджений рух за безпеку штучного інтелекту.

Розв'язання цих проблем безпеки може відбуватися коштом швидкого зростання індустрії штучного інтелекту — компромісу, який турбує багатьох у Кремнієвій долині. З огляду на те що інвестиції у штучний інтелект підтримують значну частину економіки Америки, страх надмірного регулювання цілком зрозумілий.

Але після років нерегульованого розвитку штучного інтелекту, рух за безпеку штучного інтелекту, схоже, набирає реальних обертів напередодні 2026 року. Спроби Кремнієвої долини протистояти групам, що зосереджені на безпеці, можуть бути ознакою того, що вони працюють.

Источник материала
loader
loader