РТ: УН упозоравају да неконтролисана вештачка интелигенција и технологија машинског учења може кршити људска права и нанети штету животима,

16-09-2021 08:39:42 | | фото: © Shutterstock / RT/ vostok.rs |


Шеф УН-а за људска права позвао је на мораторијум на употребу одређених технологија вештачке интелигенције, попут масовног препознавања лица, све док не постоје „одговарајуће заштите“ против њеног потенцијално „катастрофалног“ утицаја.


У свом јучерашњем саопштењу, високи комесар УН-а за људска права Мишел Бачелет нагласила је потребу потпуне забране апликација вештачке интелигенције које нису у складу с међународним законом о људским правима, истовремено тражећи паузу у продаји одређених технологија које изазивају забринутост.


Напомињући да вештачка интелигенција и алгоритми за машинско учење сада сежу „скоро у сваки кутак нашег физичког и менталног живота, па чак и у емоционална стања“, Бачелет је додала да технологије имају потенцијал да буду „сила за добро“, али би могле имати и „негативност, чак и катастрофалне ефекте ако се користе без довољно обзира на то како утичу на права људи
.

"Системи вештачке интелигенције се користе за одређивање ко добија јавне услуге, одлучивање о томе ко има шансе да буде ангажован за посао, и наравно утичу на информације које људи виде и могу да поделе на мрежи."

Technologies like facial recognition are increasingly used to identify people in real time and from a distance.

We call for a moratorium on their use in public spaces, at least until robust international #HumanRights safeguards are in place.

Learn more: https://t.co/VmmR75slYd pic.twitter.com/mslH79ccFK

— UN Human Rights (@UNHumanRights) September 15, 2021

Њено упозорење уследило је након што је Канцеларија УН за људска права објавила извештај који је анализирао утицај система вештачке интелигенције, попут профилисања, аутоматизованог одлучивања и других технологија машинског учења, на различита основна права, укључујући приватност, здравље, образовање, слободу изражавања и кретање.

Извештај наглашава бројне забрињавајуће догађаје, укључујући „пространи екосистем углавном нетранспарентног прикупљања и размене личних података“, као и начин на који су системи вештачке интелигенцијњ утицали на „владине приступе полицији“, „спровођење правде“ и „приступачност јавних услуга“.

Доношење одлука засновано на вештачкој интелигенцији такође би могло бити „дискриминаторско“ ако се ослања на застареле или небитне податке, додаје се у извештају, такође наглашавајући да се технологија може користити за диктирање онога што људи виде и деле на вебу.

Међутим, у извештају се напомиње да је најхитнија потреба „усмеравање људских права“ с обзиром на биометријске технологије, које мере и бележе јединствене телесне карактеристике и које су у стању препознати одређена људска лица „постајући све више решење“ за владе, међународна тела и технолошке фирме за разне задатке.
Извештај посебно упозорава на све већу употребу алата који покушавају да „закључе емоционално и ментално стање људи“ анализом израза лица и друге „предвиђајуће биометрије“ како би се одлучило да ли је нека особа безбедносна претња. Технологије које настоје прикупити „увиде у обрасце људског понашања“ и на основу тога предвиђају такође постављају „озбиљна питања“, саопштило је тело за људска права.
Указујући да таквој технологији недостаје „чврста научна основа“ и да је подложна пристрасности, у извештају се упозорава да употреба „система за препознавање емоција“ од стране власти, на пример, током полицијских заустављања, хапшења и испитивања, подрива права особе на приватност, слободу и правично суђење.
„Ризик од дискриминације повезан са одлукама вођеним вештачком интелигенцијом, одлукама које могу променити, дефинисати или оштетити људске животе, сувише је стваран“, рекла је Бачелет и додала да свет не може „приуштити да настави да хвата корак“ са брзим развојем технологија вештачке интелигенције.

Извор:РТ