изкуственият интелект

Според нов важен документ на ЕС, изкуственият интелект трябва да се придържа към основните етични принципи на зачитане на човешката автономия, предотвратяване на вреди, справедливост и отчетност. Насоките включват седем изисквания – изброени по-долу – и обръщат специално внимание на защитата на уязвимите групи, като деца и хора с увреждания. Те също така заявяват, че гражданите трябва да имат пълен контрол върху своите данни.

Европейската комисия препоръчва да се използва списък за оценка при разработването или разгръщането на AI, но насоките не са предназначени да бъдат – или да се намесват в – политика или регулация на проблема. Вместо това, те предлагат свободна рамка. Това лято Комисията ще работи със заинтересованите страни, за да определи области, в които може да са необходими допълнителни насоки и да измисли как най-добре да приложи и провери препоръките си. В началото на 2020 г. експертната група ще включи обратна връзка от пилотната фаза.

Докато развиваме потенциала за изграждане на неща като автономни оръжия и фалшиви алгоритми за генериране на новини, вероятно е все повече правителства да заемат позиция по отношение на етичните съображения, които AI представя.

Човешка дейност и надзор: системите за изкуствен интелект следва да дават възможност на справедливите общества да подкрепят човешката дейност и основните права, а не да намаляват, ограничават или заблуждават човешката автономия.

Надеждност и безопасност: надеждният AI изисква алгоритмите да бъдат сигурни, надеждни и достатъчно здрави, за да се справят с грешки или несъответствия по време на всички фази на жизнения цикъл на системите за изкуствен интелект.

Управление на неприкосновеността на личния живот и данните: гражданите трябва да имат пълен контрол върху собствените си данни, докато данните, свързани с тях, няма да бъдат използвани за увреждане или дискриминация срещу тях.

Прозрачност: следва да се гарантира проследяемостта на системите за изкуствен интелект.

Разнообразие, недискриминация и справедливост: системите за изкуствен интелект следва да отчитат целия спектър от човешки способности, умения и изисквания и да осигуряват достъпност.

Обществено и екологично благополучие: системите за AI трябва да се използват за засилване на положителните социални промени и за повишаване на устойчивостта и екологичната отговорност.

Отчетност: трябва да се въведат механизми, за да се гарантира отговорността и отчетността на системите за изкуствен интелект и техните резултати.

Тези правила не са като „Трите закона на робототехниката“ на Исак Азимов. Те не предлагат ясна, морална рамка, която да ни помогне да контролираме опасните роботи. Вместо това, те се занимават с многопластовите и неясни проблеми, които ще засегнат обществото, докато интегрираме AI в сектори като здравеопазването, образованието и потребителските технологии.

Така например, ако една система за изкуствен интелект ви диагностицира с рак някъде в бъдеще, насоките на ЕС биха искали да се уверят, че се случват редица неща: че софтуерът не е бил предубеден от вашата раса или пол, че не е пренебрегнал възраженията на човешки лекар, и че дава възможност на пациента да им обясни диагнозата.

Коментари