Декількома словами
Уряд Іспанії затвердив законопроєкт, який регулює використання штучного інтелекту, адаптуючи європейські норми. Він встановлює вимоги до маркування контенту, згенерованого ШІ, та визначає заборонені практики, зокрема «deepfakes». Хоча конкретні механізми контролю та маркування ще потребують уточнення, законопроєкт є важливим кроком до етичного та безпечного використання ШІ в Іспанії.

Сьогодні Рада міністрів Іспанії затвердила законопроєкт
Сьогодні Рада міністрів Іспанії затвердила законопроєкт про етичне, інклюзивне та корисне використання штучного інтелекту (ШІ), що має на меті впорядкувати практичне застосування цієї технології. Законопроєкт адаптує до іспанського законодавства положення Європейського регламенту про штучний інтелект, погодженого інституціями ЄС 8 грудня 2023 року та схваленого Європейським парламентом 13 березня минулого року. «ШІ – це дуже потужний інструмент, який може служити для покращення нашого життя або для поширення неправдивої інформації та атак на демократію», – заявив на прес-конференції міністр цифрової трансформації та державної служби Оскар Лопес.
Як нагадав міністр
Як нагадав міністр, європейське законодавство «захищає наші цифрові права, визначаючи заборонені практики». Наприклад, серйозним порушенням вважається недотримання вимог щодо маркування текстів, відео чи аудіо, згенерованих за допомогою ШІ. «Всі ми можемо стати об'єктом подібної атаки. Це називається «deepfakes», і це заборонено», – попередив Лопес.
Однак міністр не уточнив, як саме має здійснюватися це маркування. «Коли буде розроблено нормативні акти, Іспанське агентство з нагляду за штучним інтелектом (Aesia) встановить правила», – сказав він. Хто контролюватиме дотримання цих правил? Управління та обробка біометричних даних буде відповідальністю Іспанського агентства захисту даних (AEPD); системи ШІ, які можуть впливати на демократію, будуть у компетенції Центральної виборчої комісії; а ті, що можуть впливати на здійснення правосуддя, – Ради суддів.
Інші випадки вивчатиме Aesia. Організація, створена минулого року та розташована в Ла-Коруньї, очолювана Ігнасі Бельда, планує найняти до 2026 року щонайменше 80 експертів з різних дисциплін, які повинні будуть перевіряти відповідність різних застосунків ШІ нормативним актам.
Лопес нагадав, що, як передбачено Європейським регламентом про ШІ, ті, хто порушує законодавство, зіткнуться зі штрафами до 35 мільйонів євро та/або від 5% до 7% світового обороту.
Адаптація європейської рамки
Європейський регламент про ШІ, який вважається найпрогресивнішим у світі в цій сфері, має новаторський підхід. З метою не застаріти, регламент класифікує різні доступні застосунки ШІ залежно від їхнього ризику та, відповідно до цього, встановлює різні вимоги та зобов'язання. Вони варіюються від використання без обмежень, наприклад, фільтр спаму або рекомендатор контенту, до повної заборони. Ці більш серйозні випадки стосуються тих застосунків, «які виходять за межі свідомості людини або навмисно маніпулюють», тих, що експлуатують її вразливість, або тих, що визначають емоції, расу чи політичні погляди людей.
Між цими двома крайнощами розташовані так звані технології «високого ризику», що підлягають постійному нагляду. До цієї категорії належать системи дистанційної біометричної ідентифікації, які широкий сектор парламенту хотів категорично заборонити; системи біометричної категоризації або розпізнавання емоцій. А також системи, що впливають на безпеку критичної інфраструктури, та пов'язані з освітою (оцінка поведінки, системи прийому та іспити), працевлаштуванням (відбір персоналу) та наданням основних державних послуг, застосуванням закону або управлінням міграцією.
Регламент також встановлює, що необхідно проводити періодичні звіти для оновлення цієї класифікації, щоб, коли з'являться нові застосунки, не передбачені в документі, було визначено, до якої категорії вони належать (використання без обмежень, використання з обмеженнями або заборона).
Те саме сталося, наприклад, зі генеративним ШІ, технологією, що стоїть за такими інструментами, як ChatGPT: його поява відбулася, коли переговори щодо Регламенту були вже дуже просунутими. Обговорювалося, чи варто робити конкретну згадку про нього чи ні. Зрештою, його було включено, і було встановлено, що так звані фундаментальні моделі повинні відповідати критеріям прозорості, таким як зазначення, чи був текст, пісня чи фотографія згенеровані за допомогою ШІ, а також гарантувати, що дані, які були використані для навчання систем, поважають авторські права.
Однак у документі не було встановлено, як саме має здійснюватися це позначення контенту, створеного ШІ, а також як гарантувати, що вони поважають авторські права. Ці два ключові питання також не були конкретизовані в законопроєкті, представленому сьогодні.