У США попереджають про загрози від автономного штучного інтелекту
Дослідження, проведене RAND Corporation, виявило, що існуючі плани з управління великими загрозами від штучного інтелекту є фрагментованими та неперевіреними. Експерти наголосили на необхідності створення швидких інструментів аналізу штучного інтелекту та посилення координації для запобігання катастрофам.
У рамках симуляції, що відбулася нещодавно, було змодельовано, як автономні AI-агенти можуть захопити цифрові системи, завдати шкоди людям і паралізувати критичну інфраструктуру – і це все без попередження. Згідно з опублікованим звітом, ймовірність того, що катастрофа, викликана штучним інтелектом, може перевершити можливості захисту США, є надзвичайно високою.
Грегорі Сміт, аналітик RAND і співавтор звіту, зазначив, що учасники симуляції зазнавали значної невизначеності в тому, як уряди могли б діагностувати таку ситуацію. Відзначалося, що реакції учасників значно варіювалися залежно від припущень про джерело атаки.
Дослідження також вказало на важливість точного визначення винуватців у кризових ситуаціях, оскільки це може суттєво вплинути на політичні рішення. RAND закликав до інвестицій у швидкі можливості аналізу AI, безпечні комунікаційні мережі та встановлення попередніх каналів зв’язку з іноземними урядами, навіть з противниками, щоб запобігти ескалації в майбутніх атаках.
Це дослідження підтверджує критичну важливість підготовки до потенційних наслідків, пов’язаних з автономним штучним інтелектом, і підкреслює необхідність зміцнення інфраструктури для забезпечення національної безпеки.





