Kur Jess Smith ngarkoi një foto të vetes në një gjenerator imazhesh me anë të inteligjencës artificiale këtë verë, ajo nuk priste një eksperiment social.
Ish-notuesja paralimpike australiane donte të bënte më shumë seç duhej në foton e saj të porsalindur dhe ngarkoi një foto të plotë të saj, duke treguar konkretisht se i mungonte krahu i majtë poshtë bërrylit.
Por ChatGPT nuk mundi të krijonte imazhin që ajo po kërkonte dhe pavarësisht sugjerimeve të ndryshme, rezultatet ishin kryesisht të njëjta – një grua me dy krahë ose një me një pajisje metalike për të përfaqësuar një protezë.
Ajo e pyeti inteligjencën artificiale pse ishte kaq e vështirë të krijonte imazhin dhe ai tha se ishte sepse nuk kishte të dhëna të mjaftueshme për të punuar.
“Ky ishte një realizim i rëndësishëm për mua se sigurisht që inteligjenca artificiale është një pasqyrim i botës në të cilën jetojmë sot dhe nivelit të pabarazisë dhe diskriminimit që ekziston”, thotë ajo.
Smith u përpoq së fundmi ta gjeneronte përsëri imazhin në ChatGPT dhe u habit kur zbuloi se tani mund të prodhonte një pamje të saktë të një gruaje me një krah, njësoj si ajo.
“O Zot i madh, funksionoi, është e mrekullueshme që më në fund është përditësuar”, i thotë ajo BBC-së. “Ky është një hap i madh përpara.”

Mund të mos tingëllojë si ndonjë gjë e madhe, por për miliona njerëz me aftësi të kufizuara, ky ndryshim ka rëndësi.
“Përfaqësimi në teknologji do të thotë të mos shihet si një mendim i mëvonshëm, por si pjesë e botës që po ndërtohet”, thotë Jess.
“IA po evoluon dhe kur evoluon me përfshirjen në thelbin e saj, të gjithë përfitojmë. Ky është më shumë sesa përparim në teknologji, është përparim në njerëzim.”
Një zëdhënës i OpenAI, kompania që qëndron pas ChatGPT, tha se kohët e fundit kishte “bërë përmirësime domethënëse” në modelin e saj të gjenerimit të imazheve.
Ata shtuan: “Ne e dimë që sfidat mbeten, veçanërisht në lidhje me përfaqësimin e drejtë, dhe po punojmë në mënyrë aktive për ta përmirësuar këtë – duke përfshirë rafinimin e metodave tona pas trajnimit dhe shtimin e shembujve më të larmishëm për të ndihmuar në uljen e paragjykimeve me kalimin e kohës.”

Ndërsa aftësia e kufizuar e Smith tani reflektohet me inteligjencën artificiale, Naomi Bowman, e cila ka shikim vetëm në njërin sy, ende po përjeton një problem të ngjashëm.
Ajo i kërkoi ChatGPT të turbullonte sfondin e një fotografie, por në vend të kësaj “i ndryshoi plotësisht fytyrën dhe m’i barazoi sytë”.
“Edhe kur i shpjegova konkretisht se kisha një problem me sytë dhe se duhej ta lija fytyrën të qetë; kjo nuk mund të llogaritej”, thotë ajo.
Naomi fillimisht e gjeti qesharake, por thotë “tani më trishton pasi tregon paragjykimin e lindur brenda inteligjencës artificiale”.
Ajo po bën thirrje që modelet e inteligjencës artificiale të “trajnohen dhe testohen në mënyra rigoroze për të zvogëluar paragjykimin e inteligjencës artificiale dhe për të siguruar që grupet e të dhënave janë mjaftueshëm të gjera në mënyrë që të gjithë të përfaqësohen dhe trajtohen në mënyrë të drejtë”.
Disa të shqetësuar për ndikimin mjedisor të inteligjencës artificiale kanë kritikuar krijimin e imazheve në ChatGPT.
Profesoresha Gina Neff e Universitetit Queen Mary në Londër i tha BBC-së se ChatGPT po “shpenzon energji” dhe qendrat e të dhënave të përdorura për ta furnizuar atë me energji konsumojnë më shumë energji elektrike në vit sesa 117 vende.
Biseda të sikletshme
Ekspertët thonë se paragjykimet në inteligjencën artificiale shpesh pasqyrojnë të njëjtat pika të verbëra që ekzistojnë në shoqërinë e gjerë dhe nuk janë vetëm aftësitë e kufizuara që nuk përfaqësohen.
Abran Maldonado, drejtor ekzekutiv i Create Labs, një kompani me seli në SHBA që ndërton sisteme të inteligjencës artificiale të ndërgjegjshme për kulturën, thotë se diversiteti në inteligjencën artificiale fillon me atë se kush është i përfshirë në trajnimin dhe etiketimin e të dhënave.
“Ka të bëjë me atë se kush është në dhomë kur të dhënat po ndërtohen”, shpjegon ai. “Ju nevojitet përfaqësim kulturor në fazën e krijimit.”
Jo çdo gjë përfaqësohet saktë në internet dhe Maldonado shton se nëse nuk konsultoheni me njerëzit me përvoja të jetuara, atëherë IA do t’i humbasë ata.
Një shembull i njohur ishte një studim i qeverisë amerikane i vitit 2019, i cili zbuloi se algoritmet e njohjes së fytyrës ishin shumë më pak të sakta në identifikimin e fytyrave afrikano-amerikane dhe aziatike krahasuar me fytyrat kaukaziane.
Pse inteligjenca artificiale po i fshin njerëzit?
Për vite me radhë, komunitetet e personave me aftësi të kufizuara dhe të margjinalizuara kanë luftuar për përfaqësim në atë që shohim në media. Aleksi dhe Kevini zbulojnë nëse inteligjenca artificiale rrezikon të zhbëjë të gjitha ato fitore të fituara me mund.
Edhe pse jeton me një krah, Jess nuk e sheh veten si me aftësi të kufizuara, duke thënë se barrierat me të cilat përballet janë shoqërore.
“Nëse përdor një tualet publik dhe rubineti duhet të mbahet i shtypur, kjo ndikon në aftësinë time, jo sepse nuk mund ta bëj, por sepse projektuesi nuk ka menduar për mua.”
Ajo beson se ekziston rreziku që e njëjta mbikëqyrje të ndodhë në botën e inteligjencës artificiale, sistemeve dhe hapësirave të ndërtuara pa marrë parasysh të gjithë.
Kur Jess ndau përvojën e saj origjinale në LinkedIn, dikush i dërgoi një mesazh duke i thënë se aplikacioni i tij i inteligjencës artificiale do të krijonte një imazh të një gruaje me një krah.
“U përpoqa ta krijoja dhe ndodhi e njëjta gjë, nuk munda ta gjeneroja imazhin”, thotë ajo.
Ajo ia tregoi personit, por ata nuk i janë përgjigjur kurrë dhe ajo thotë se kjo është tipike e bisedave rreth aftësisë së kufizuar.
“Biseda është shumë e sikletshme dhe e pakëndshme, kështu që njerëzit tërhiqen.”