И все пак сме далеч от измамно простия свят на историите за роботи на Айзък Азимов, в които разумните машини предоставяха предимствата на мощните "позитронни мозъци" само с три правила - не наранявай хората, подчинявай се на хората и защитавай съществуването си. Изкуственият интелект (ИИ) очевидно е прекалено важен, за да не се регулира задълбочено, но ЕС ще има тежката задача да опрости законодателството, като същевременно насърчава иновациите.
Законът за ИИ съдържа някои добри идеи, насочени към прозрачността и доверието: Чатботовете ще трябва да декларират дали са обучени върху материали, защитени с авторски права, дълбинните фалшификати ще трябва да бъдат обозначени като такива, а редица добавени наскоро задължения за видовете модели, използвани в генеративния ИИ, ще изискват сериозни усилия за каталогизиране на наборите от данни и поемане на отговорност за начина, по който се използват.
Да бъде вдигната завесата за работата на мистичните машини, които обработват огромни масиви от човешки резултати, е правилен подход и ни приближава към повече достойнство при третирането на данните. Както Драгош Тудораче, съдокладчик на закона, ми каза наскоро, целта е да се насърчи "доверието и увереността" в една технология, която привлече огромни инвестиции и вълнение, но също така доведе до някои много мрачни провали. Саморегулирането не е вариант, както и "бягството в гората" и бездействието от страх, че ИИ може да унищожи човечеството един ден, казва той.
Законът обаче е и много сложен и крие парадоксален риск да постави летвата твърде високо, за да насърчи иновациите, но не достатъчно високо, за да се избегнат непредвидими резултати. Основният подход е да се категоризират приложенията на ИИ в категории за риск - от минимални (спам филтри, видеоигри) до високи (набиране на персонал на работното място) и неразрешени (разпознаване на лица в реално време).
Това има смисъл от гледна точка на безопасността на продуктите, като от доставчиците на системи с ИИ се очаква да отговарят на правила и изисквания, преди да пуснат продуктите си на пазара. Въпреки това категорията на високорисковите приложения е широка, а отговорността надолу по веригата в приложение като ChatGPT показва как технологиите могат да размият рамките на продуктовата безопасност. Когато адвокатът разчита на изкуствен интелект, за да изготви молба, която неволно се пълни с измислена съдебна практика, той използва продукта по предназначение или злоупотребява с него?
Не е ясно също така как точно това ще се отрази на други закони за защита на личните данни, като например GDPR на ЕС, който беше използван от Италия като основание за временното блокиране на ChatGPT. И макар че по-голямата прозрачност на защитените с авторски права данни за обучението е разумна, тя може да влезе в противоречие с предишни изключения от правилата за събиране на данни, които са били издадени когато творческите индустрии не гледаха с такава тревога към изкуствения интелект.
Всичко това означава, че съществува реална възможност действителният ефект от Закона за изкуствения интелект да затвърди зависимостта на ЕС от големите американски технологични фирми - от Microsoft Corp. до Nvidia Corp. Европейските фирми се надпреварват да се възползват от потенциалните ползи за производителността от ИИ, но вероятно големите доставчици на пазара ще бъдат най-добре подготвени да се справят с комбинацията от очакваните първоначални разходи за привеждане в съответствие в размер на поне 3 млрд. долара и глоби за неспазване на изискванията в размер на до 7% от глобалните приходи.
Според Fast Company Adobe Inc. вече е предложила да компенсира по законен начин предприятията, ако бъдат съдени за нарушаване на авторските права върху изображения, които инструментът Firefly създава. Някои фирми могат да поемат пресметнат риск и да избегнат изцяло ЕС: Alphabet Inc. все още не е направила своя чатбот Bard достъпен там.
ЕС трябва да направи много фини настройки, докато започнат окончателните преговори по Закона за изкуствения интелект, който може да влезе в сила едва през 2026 г. Държави като Франция, които са притеснени, че могат да загубят повече позиции в областта на иновациите в полза на САЩ, вероятно ще настояват за повече изключения за по-малките компании. Анализаторът на Bloomberg Intelligence Тамлин Бейсън вижда възможно "средно положение" по отношение на ограниченията. Това трябва да бъде придружено от инициативи за насърчаване на новите технологични идеи, като например на екосистеми, свързващи университети, стартиращи компании и инвеститори. Трябва да има и повече глобална координация в момент, когато тревогата около ИИ е широко разпространена - новият процес на Г-7 за ИИ в Хирошима изглежда като полезен форум за обсъждане на въпроси като правата на интелектуална собственост.
Може би една добра новина е, че ИИ не е на път да унищожи всички работни места, заемани от служители по съответствието и адвокати. Технологичният консултант Бари Сканел казва, че компаниите ще се стремят да наемат служители по ИИ и да изготвят оценки на въздействието на ИИ, подобно на това, което се случи след GDPR. Обуздаването на роботите изисква повече човешки мозъчен капацитет - може би един обрат, който би бил невъзможен според правилата на Азимов.