Какво представлява "системен риск" при големите модели на ИИ с общо предназначение?

Бърз отговор

Системният риск възниква при най-мощните модели на ИИ (с изключително висока степен на въздействие), които са обучени с огромна изчислителна мощ. Поради мащаба си, тези модели могат да предизвикат сериозни неблагоприятни последици на равнището на целия Европейски съюз, засягайки обществената сигурност, здравето или демократичните процеси.
Проверено от Екипът на ПравниОтговори

Детайли по темата

Идентификация на системния риск

Не всички чатботове и езикови модели са еднакви. Най-огромните генеративни модели могат да предизвикат “системни” проблеми, които не се ограничават до един изолиран инцидент.

Съгласно чл. 51, параграф 1 от Регламент (ЕС) 2024/1689, един модел на ИИ с общо предназначение се класифицира като пораждащ “системен риск”, когато разполага със способности с “висока степен на въздействие”.

Критерии за изчислителна мощ

Законът въвежда математически праг за дефиниране на този риск. Според чл. 51, параграф 2 от Регламента, се счита автоматично, че даден модел има способности с висока степен на въздействие, когато общото количество изчисления (compute), използвани за неговото обучение, надвишава умопомрачителния праг от $10^{25}$ операции с плаваща запетая (FLOPs).

Доставчиците на такива мега-модели са подложени на най-стриктния възможен надзор в ЕС и трябва да извършват състезателни изпитвания (red-teaming), за да предотвратят сривове в сигурността (съгласно чл. 55 от Регламента).

Проверено от Екипът на ПравниОтговори

Проектът се реализира с подкрепата на Адвокат Стела Дойкова. Научете повече за нас.