Какво представлява "системен риск" при големите модели на ИИ с общо предназначение?
Бърз отговор
Детайли по темата
Идентификация на системния риск
Не всички чатботове и езикови модели са еднакви. Най-огромните генеративни модели могат да предизвикат “системни” проблеми, които не се ограничават до един изолиран инцидент.
Съгласно чл. 51, параграф 1 от Регламент (ЕС) 2024/1689, един модел на ИИ с общо предназначение се класифицира като пораждащ “системен риск”, когато разполага със способности с “висока степен на въздействие”.
Критерии за изчислителна мощ
Законът въвежда математически праг за дефиниране на този риск. Според чл. 51, параграф 2 от Регламента, се счита автоматично, че даден модел има способности с висока степен на въздействие, когато общото количество изчисления (compute), използвани за неговото обучение, надвишава умопомрачителния праг от $10^{25}$ операции с плаваща запетая (FLOPs).
Доставчиците на такива мега-модели са подложени на най-стриктния възможен надзор в ЕС и трябва да извършват състезателни изпитвания (red-teaming), за да предотвратят сривове в сигурността (съгласно чл. 55 от Регламента).
Проверено от Екипът на ПравниОтговори
Проектът се реализира с подкрепата на Адвокат Стела Дойкова. Научете повече за нас.