Штучний інтелект у держсекторі: ChatGPT використовується без контролю, дані громадян під загрозою

Штучний інтелект у держсекторі: ChatGPT використовується без контролю, дані громадян під загрозою

Декількома словами

Новина про ризики неконтрольованого використання ШІ, включаючи ChatGPT, у державному секторі, що загрожують даним громадян та можливості дискримінації.


Впровадження штучного інтелекту (ШІ) у державний сектор викликає побоювання через неконтрольоване використання ChatGPT та інших інструментів. Експерти попереджають про ризики для конфіденційності даних громадян та можливість дискримінації.

Масштабне використання ШІ, зокрема ChatGPT, у державних установах без належного контролю та навчання персоналу викликає серйозне занепокоєння. Збір та обробка даних громадян, які використовуються для навчання великих мовних моделей, несуть у собі потенційні ризики, включаючи порушення суверенітету та можливість дискримінації за расовою та гендерною ознаками при прийнятті рішень.

Маркос Галларт, заступник секретаря управління урбанізації в мерії, зазначає, що ШІ дозволяє економити до 20% часу при підготовці звітів. Однак, за його словами, для ефективного використання технологій необхідні навчання та підтримка. Міністерство державної служби планує спростити деякі адміністративні процедури, такі як заповнення форм та декларації про доходи, що, за словами міністра Оскара Лопеса, стане найбільшою революцією в державному управлінні з часів появи інтернету.

Пабло Саес, юрист, що спеціалізується на цифрових правах, підкреслює, що відсутність національного регулювання залишає державних службовців без керівництва у питаннях відповідального використання таких мовних моделей, як ChatGPT. Габріеле Вестрі, президент організації, що об'єднує експертів з впровадження ШІ, закликає місцеву владу ретельно планувати використання ШІ, щоб уникнути прийняття рішень, мотиви яких залишаться незрозумілими.

Консепсьйон Кампос, доктор права та експерт у галузі впровадження ШІ у державному секторі, зазначає, що більшість державних службовців використовують ШІ без чіткої стратегії. Експерти закликають до термінової «алфавітизації у галузі ШІ», щоб уникнути можливих ризиків. Саес також вказує на конкуренцію між технологічними гігантами, такими як Open AI та Google, за отримання даних для навчання своїх моделей.

Крім того, Саес попереджає про появу віртуальних помічників, що використовують ШІ, які можуть приховувати китайські або інші моделі, такі як Llama від Meta або моделі Open AI. Основна проблема, на його думку, полягає в тому, що державні службовці, які розробляють вимоги до таких систем, не мають достатніх знань про технології. Мойсес Барріо, експерт з цифрового права, зазначає, що державні органи не можуть використовувати моделі мови, що не пройшли сертифікацію.

Насамкінець, експерти підкреслюють необхідність розробки стратегій та навчання, щоб уникнути негативних наслідків від неконтрольованого використання ШІ у державному секторі.

Про автора

експерт із глибокого аналізу та фактчекінгу. Пише аналітичні статті з точними фактами, цифрами та перевіреними джерелами.