Як підготуватися до інциденту в системі штучного інтелекту та виправити його наслідки
Які ризики несе відсутність контролю над штучним інтелектом?
Штучний інтелект відкриває перед нами безліч можливостей, проте завжди є ризик технічної несправності або компрометації технології. Недавнє дослідження від ISACA виявило, що більшість організацій не можуть швидко припинити роботу системи штучного інтелекту у випадку виникнення кризи та навіть не можуть пояснити, що стало причиною проблеми.
Згідно з даними звіту ISACA, 59% фахівців з цифрової довіри не розуміють, як швидко їх організація може втрутитися та зупинити роботу системи ШІ під час інциденту безпеки. Лише 21% відповіли, що можуть ефективно втрутитися за пів години, що створює ризик того, що скорумповані AI системи зможуть працювати безконтрольно, призводячи до необоротної шкоди.
CEO та засновник Kovant Алі Сараффі сказав: “Висновки ISACA вказують на велику структурну проблему в тому, як організації впроваджують AI. Системи інтегруються в критичні робочі процеси без належного управління та аудиту їхніх дій. Якщо бізнес не може швидко зупинити систему ШІ, пояснити її поведінку або навіть визначити, кого треба притягнути до відповідальності, він не контролює цю систему.”
Загалом лише 42% респондентів висловили упевненість у здатності своєї організації аналізувати та зрозуміти серйозні інциденти з AI, що може призвести до можливих збоїв в операційній діяльності та ризиків для безпеки. Без пояснення таких інцидентів регуляторам і лідерам бізнес може зіткнутися з правовими санкціями та негативною реакцією громадськості.
Відсутність належного аналізу заважає вчитися на помилках. Без чіткої картини ймовірність повторення інцидентів лише зростає. Важливо відповідально ставитися до управління AI, ефективно керуючи цим процесом, але результати ISACA показують, що цієї практики часто бракує в організаціях.
Відповідальність за інциденти з AI залишилася невизначеною для багатьох: 20% не знають, хто повинен відповідати за шкоду, спричинену системою ШІ. Лише 38% вказали керівну раду або виконавчого директора як відповідального..
Сараффі зауважив, що зменшення використання AI не є виходом; натомість необхідно переосмислити, як ним керувати. “Системи ШІ повинні функціонувати в структурованому управлінському середовищі, щоб їх можна було перевірити і контролювати. Коли AI стає центральною частиною бізнес-процесів, управління не може бути другорядним завданням. Це треба розробляти з першого дня, з прозорістю та контролем на кожному рівні. Організації, що зможуть це реалізувати, не тільки знизять ризики, але й зможуть успішно масштабувати AI в бізнесі.”
Проте є деякі фактори, що вселяють оптимізм: 40% респондентів зазначили, що дії AI схвалюються людиною перед їх виконанням, а 26% перевіряють результати AI. Однак без поліпшеної інфраструктури управління людський нагляд не завжди зможе ідентифікувати та вирішувати проблеми до їх загострення.
Висновки ISACA вказують на суттєву структурну проблему у впровадженні AI в різних секторах. Більш ніж третина організацій не вимагає від співробітників розкриття інформації про використання AI в робочих продуктах, що збільшує потенційну можливість виникнення проблем.
Незважаючи на суворіші регулювання, які змушують вищих керівників бути більш відповідальними, організації не забезпечують безпечне та ефективне використання AI. Багато компаній вважають ризики, пов’язані з AI, технічною проблемою, а не питанням, яке потребує ретельного управління на рівні всієї організації.
Зміна підходу до інтеграції та управління AI є важливою. Без належного управління та відповідальності компанії не контролюють свої AI системи. Без контролю навіть незначні помилки можуть завдати репутаційної та фінансової шкоди, від якої бізнесу буде важко оговтатися.




