Տեխնոլոգիական ոլորտին սպառնում են մի շարք գործոններ. Օգտատերերը վախենում են, օրինակ, չարամիտ ծրագրերից կամ գաղտնիության կորստից: Սակայն, ըստ տեխնոլոգիական արդյունաբերության ազդեցիկ գործիչների, մենք պետք է ոչ այնքան անհանգստանանք բուն մարդկային գործոնով, որքան դրա կապը արհեստական ինտելեկտի հետ: Դավոսում այս տարվա Համաշխարհային տնտեսական ֆորումի ժամանակ մի շարք խոշոր տեխնոլոգիական ընկերությունների ղեկավարներ կոչ արեցին արդյունաբերության օրենսդրական կարգավորմանը: Որո՞նք են նրանց դա անելու պատճառները:
«Արհեստական ինտելեկտը ամենախորը բաներից մեկն է, որի վրա մենք աշխատում ենք որպես մարդկություն: Այն ավելի շատ խորություն ունի, քան կրակը կամ էլեկտրականությունը»։ ասել է Alphabet Inc.-ի գործադիր տնօրենն անցած չորեքշաբթի Համաշխարհային տնտեսական ֆորումում: Սունդար Պիչայը՝ հավելելով, որ արհեստական ինտելեկտի կարգավորումը պահանջում է մշակման գլոբալ շրջանակ։ Microsoft-ի տնօրեն Սաթյա Նադելան և IBM-ի տնօրեն Ջիննի Ռոմետին նույնպես կոչ են անում ստանդարտացնել արհեստական ինտելեկտի օգտագործման կանոնները: Նադելլայի խոսքով՝ այսօր՝ ավելի քան երեսուն տարի առաջ, անհրաժեշտ է, որ Միացյալ Նահանգները, Չինաստանը և Եվրամիությունը կանոններ սահմանեն, որոնք կորոշեն արհեստական ինտելեկտի կարևորությունը մեր հասարակության և աշխարհի համար։
Առանձին ընկերությունների՝ արհեստական ինտելեկտի սեփական էթիկայի կանոններ սահմանելու փորձերը նախկինում բախվել են ոչ միայն այդ ընկերությունների աշխատակիցների բողոքին։ Օրինակ, Google-ը ստիպված եղավ 2018 թվականին դուրս գալ Project Maven գաղտնի կառավարական ծրագրից, որն օգտագործում էր տեխնոլոգիա ռազմական անօդաչու թռչող սարքերի պատկերները վերլուծելու համար՝ զանգվածային արձագանքից հետո: Բեռլինի Stiftung Neue Verantwortung վերլուծական կենտրոնից Ստեֆան Հեյմանը արհեստական ինտելեկտի շուրջ էթիկական հակասությունների առնչությամբ ասում է, որ քաղաքական կազմակերպությունները պետք է սահմանեն կանոնները, ոչ թե իրենք՝ ընկերությունները:
Արհեստական ինտելեկտի դեմ բողոքի ներկայիս ալիքն ունի հստակ պատճառ այս ժամկետի համար։ Ընդամենը մի քանի շաբաթվա ընթացքում Եվրամիությունը պետք է փոխի համապատասխան օրենսդրության իր ծրագրերը: Սա կարող է ներառել, օրինակ, կանոնակարգեր, որոնք վերաբերում են արհեստական ինտելեկտի զարգացմանը, այսպես կոչված, բարձր ռիսկային ոլորտներում, ինչպիսիք են առողջապահությունը կամ տրանսպորտը: Նոր կանոնների համաձայն, օրինակ, ընկերությունները պետք է թափանցիկության շրջանակներում փաստաթղթավորեն, թե ինչպես են կառուցում իրենց AI համակարգերը։
Արհեստական ինտելեկտի հետ կապված նախկինում արդեն մի քանի սկանդալներ են ի հայտ եկել՝ դրանցից մեկը, օրինակ, Cambridge Analytica-ի գործն է։ Amazon ընկերությունում աշխատակիցները գաղտնալսել են օգտատերերին Alexa թվային օգնականի միջոցով, իսկ անցյալ տարվա ամռանը կրկին սկանդալ բռնկվեց այն բանի պատճառով, որ Google ընկերությունը կամ YouTube հարթակը հավաքել է տվյալներ մինչև տասներեք տարեկան երեխաներից։ առանց ծնողների համաձայնության.
Մինչ որոշ ընկերություններ լռում են այս թեմայի վերաբերյալ, ըստ նրա փոխնախագահ Նիկոլա Մենդելսոնի հայտարարության, Facebook-ը վերջերս սահմանեց իր սեփական կանոնները, որոնք նման են եվրոպական GDPR կանոնակարգին։ Մենդելսոնը հայտարարության մեջ նշել է, որ դա Facebook-ի կողմից գլոբալ կարգավորման մղման արդյունքն է: Քիթ Էնրայթը, ով պատասխանատու է Google-ի գաղտնիության համար, վերջերս Բրյուսելում կայացած կոնֆերանսի ժամանակ ասաց, որ ընկերությունը ներկայումս ուղիներ է փնտրում՝ նվազագույնի հասցնելու օգտատերերի տվյալների քանակը, որոնք պետք է հավաքվեն: «Բայց տարածված պնդումն այն է, որ մեր նման ընկերությունները փորձում են հնարավորինս շատ տվյալներ հավաքել»: Նա այնուհետև հայտարարեց՝ հավելելով, որ օգտատերերի համար որևէ արժեք չբերող տվյալների պահպանումը ռիսկային է։
Կարգավորողները կարծես թե ոչ մի դեպքում չեն թերագնահատում օգտատերերի տվյալների պաշտպանությունը։ Միացյալ Նահանգները ներկայումս աշխատում է GDPR-ի նման դաշնային օրենսդրության վրա: Դրանց հիման վրա ընկերությունները պետք է համաձայնություն ստանան իրենց հաճախորդներից՝ իրենց տվյալները երրորդ անձանց տրամադրելու համար:
Աղբյուրը ` Bloomberg