Փակել գովազդը

Տեխնոլոգիական ոլորտին սպառնում են մի շարք գործոններ. Օգտատերերը վախենում են, օրինակ, չարամիտ ծրագրերից կամ գաղտնիության կորստից: Սակայն, ըստ տեխնոլոգիական արդյունաբերության ազդեցիկ գործիչների, մենք պետք է ոչ այնքան անհանգստանանք բուն մարդկային գործոնով, որքան դրա կապը արհեստական ​​ինտելեկտի հետ: Դավոսում այս տարվա Համաշխարհային տնտեսական ֆորումի ժամանակ մի շարք խոշոր տեխնոլոգիական ընկերությունների ղեկավարներ կոչ արեցին արդյունաբերության օրենսդրական կարգավորմանը: Որո՞նք են նրանց դա անելու պատճառները:

«Արհեստական ​​ինտելեկտը ամենախորը բաներից մեկն է, որի վրա մենք աշխատում ենք որպես մարդկություն: Այն ավելի շատ խորություն ունի, քան կրակը կամ էլեկտրականությունը»։ ասել է Alphabet Inc.-ի գործադիր տնօրենն անցած չորեքշաբթի Համաշխարհային տնտեսական ֆորումում: Սունդար Պիչայը՝ հավելելով, որ արհեստական ​​ինտելեկտի կարգավորումը պահանջում է մշակման գլոբալ շրջանակ։ Microsoft-ի տնօրեն Սաթյա Նադելան և IBM-ի տնօրեն Ջիննի Ռոմետին նույնպես կոչ են անում ստանդարտացնել արհեստական ​​ինտելեկտի օգտագործման կանոնները: Նադելլայի խոսքով՝ այսօր՝ ավելի քան երեսուն տարի առաջ, անհրաժեշտ է, որ Միացյալ Նահանգները, Չինաստանը և Եվրամիությունը կանոններ սահմանեն, որոնք կորոշեն արհեստական ​​ինտելեկտի կարևորությունը մեր հասարակության և աշխարհի համար։

Առանձին ընկերությունների՝ արհեստական ​​ինտելեկտի սեփական էթիկայի կանոններ սահմանելու փորձերը նախկինում բախվել են ոչ միայն այդ ընկերությունների աշխատակիցների բողոքին։ Օրինակ, Google-ը ստիպված եղավ 2018 թվականին դուրս գալ Project Maven գաղտնի կառավարական ծրագրից, որն օգտագործում էր տեխնոլոգիա ռազմական անօդաչու թռչող սարքերի պատկերները վերլուծելու համար՝ զանգվածային արձագանքից հետո: Բեռլինի Stiftung Neue Verantwortung վերլուծական կենտրոնից Ստեֆան Հեյմանը արհեստական ​​ինտելեկտի շուրջ էթիկական հակասությունների առնչությամբ ասում է, որ քաղաքական կազմակերպությունները պետք է սահմանեն կանոնները, ոչ թե իրենք՝ ընկերությունները:

Google Home խելացի բարձրախոսն օգտագործում է արհեստական ​​ինտելեկտ

Արհեստական ​​ինտելեկտի դեմ բողոքի ներկայիս ալիքն ունի հստակ պատճառ այս ժամկետի համար։ Ընդամենը մի քանի շաբաթվա ընթացքում Եվրամիությունը պետք է փոխի համապատասխան օրենսդրության իր ծրագրերը: Սա կարող է ներառել, օրինակ, կանոնակարգեր, որոնք վերաբերում են արհեստական ​​ինտելեկտի զարգացմանը, այսպես կոչված, բարձր ռիսկային ոլորտներում, ինչպիսիք են առողջապահությունը կամ տրանսպորտը: Նոր կանոնների համաձայն, օրինակ, ընկերությունները պետք է թափանցիկության շրջանակներում փաստաթղթավորեն, թե ինչպես են կառուցում իրենց AI համակարգերը։

Արհեստական ​​ինտելեկտի հետ կապված նախկինում արդեն մի քանի սկանդալներ են ի հայտ եկել՝ դրանցից մեկը, օրինակ, Cambridge Analytica-ի գործն է։ Amazon ընկերությունում աշխատակիցները գաղտնալսել են օգտատերերին Alexa թվային օգնականի միջոցով, իսկ անցյալ տարվա ամռանը կրկին սկանդալ բռնկվեց այն բանի պատճառով, որ Google ընկերությունը կամ YouTube հարթակը հավաքել է տվյալներ մինչև տասներեք տարեկան երեխաներից։ առանց ծնողների համաձայնության.

Մինչ որոշ ընկերություններ լռում են այս թեմայի վերաբերյալ, ըստ նրա փոխնախագահ Նիկոլա Մենդելսոնի հայտարարության, Facebook-ը վերջերս սահմանեց իր սեփական կանոնները, որոնք նման են եվրոպական GDPR կանոնակարգին։ Մենդելսոնը հայտարարության մեջ նշել է, որ դա Facebook-ի կողմից գլոբալ կարգավորման մղման արդյունքն է: Քիթ Էնրայթը, ով պատասխանատու է Google-ի գաղտնիության համար, վերջերս Բրյուսելում կայացած կոնֆերանսի ժամանակ ասաց, որ ընկերությունը ներկայումս ուղիներ է փնտրում՝ նվազագույնի հասցնելու օգտատերերի տվյալների քանակը, որոնք պետք է հավաքվեն: «Բայց տարածված պնդումն այն է, որ մեր նման ընկերությունները փորձում են հնարավորինս շատ տվյալներ հավաքել»: Նա այնուհետև հայտարարեց՝ հավելելով, որ օգտատերերի համար որևէ արժեք չբերող տվյալների պահպանումը ռիսկային է։

Կարգավորողները կարծես թե ոչ մի դեպքում չեն թերագնահատում օգտատերերի տվյալների պաշտպանությունը։ Միացյալ Նահանգները ներկայումս աշխատում է GDPR-ի նման դաշնային օրենսդրության վրա: Դրանց հիման վրա ընկերությունները պետք է համաձայնություն ստանան իրենց հաճախորդներից՝ իրենց տվյալները երրորդ անձանց տրամադրելու համար:

Siri FB

Աղբյուրը ` Bloomberg

.