Трябва ли високорисковият изкуствен интелект задължително да подлежи на човешки контрол?
Бърз отговор
Да, високорисковите системи с ИИ трябва задължително да бъдат проектирани и разработени така, че да могат да бъдат ефективно наблюдавани и контролирани от физически лица. Целта е хората да могат да тълкуват резултатите, да пренебрегнат алгоритмично решение или да спрат системата безопасно при проблем.
Проверено от Екипът на ПравниОтговори
Детайли по темата
Правото на човешка намеса
Никоя високорискова система не може да бъде оставена да взема решения без човешки надзор.
Съгласно чл. 14, параграф 1 от Регламент (ЕС) 2024/1689, високорисковите системи с ИИ се проектират по такъв начин, че през целия период на използването им да могат да бъдат ефективно контролирани от физически лица. Това изискване цели предотвратяване или свеждане до минимум на рисковете за здравето, безопасността или основните права.
Способности на контролиращия човек
Законът описва конкретно какво трябва да може да направи човекът зад екрана. Според чл. 14, параграф 4 от Регламента, системата трябва да дава възможност на човека:
- Да разбира добре способностите и ограниченията ѝ;
- Да не се доверява сляпо на автоматизираните решения (предотвратяване на “предубеденост”);
- Във всяка ситуация да може да пренебрегне, отхвърли или отмени резултата от ИИ;
- Да се намеси и да прекъсне работата на системата чрез бутон “стоп” или подобна процедура, спирайки я в безопасно състояние.
Проверено от Екипът на ПравниОтговори
Проектът се реализира с подкрепата на Адвокат Стела Дойкова. Научете повече за нас.