Miqtë e IA-së nuk janë miqtë tuaj, ja pse
Shokët e IA-së, sado joshës, janë si t'i ofroni dikujt që është i ftohtë një video të një zjarri të ngrohtë në vend të shkrepëseve dhe enëve të gazuara.
Ilustrim nga Lumi Liu, Shutterstock
Nga Makai Allbert
Fantashkenca na përgatiti për miqësi me IA përmes filmave si "Her" dhe "Robot & Frank". Tani, ky portretizim imagjinar po bëhet realitet.
Në një podcast të kohëve të fundit, Mark Zuckerberg propozoi dhe mbështeti idenë se amerikanët kanë nevojë të madhe për lidhje sociale dhe se robotët mund ta plotësojnë këtë nevojë.
Shoqët e IA-së janë të dizajnuar për t'u ndjerë rehat, për të pasur durim të pashtershëm dhe për të mos pasur nevoja të tyre. Megjithatë, "Nuk është aq e thjeshtë sa të thuash se një chatbot shoqërues do ta zgjidhë epideminë e vetmisë", tha studiuesja e Princetonit, Rose Guingrich, për The Epoch Times. Në vend të kësaj, mjetet e IA-së rrezikojnë të dëmtojnë vetë aftësitë sociale që pretendojnë se mbështesin.
Panacea e Premtuar e Silicon Valley
Pothuajse gjysma e amerikanëve kanë tre ose më pak miq të ngushtë. Zgjidhja e teknologjisë për problemin e vetmisë njerëzore është t'u ofrojë shokë IA-së - miq dixhitalë, terapistë ose edhe partnerë romantikë të programuar për të simuluar bisedën, empatinë dhe mirëkuptimin. Ndryshe nga chatbot-et e ngathëta të së kaluarës, sistemet e sofistikuara të sotme janë ndërtuar mbi modele të mëdha gjuhësore që angazhohen në dialog në dukje natyror, gjurmojnë preferencat tuaja dhe përgjigjen me inteligjencë të dukshme emocionale. Modelet e hershme të përdorimit pasqyrojnë pse "shoqëruesit" e IA-së po fitojnë popullaritet. Një anketë e vitit 2024 e MIT Media Lab zbuloi se shumica e përdoruesve angazhohen nga kurioziteti ose argëtimi. Megjithatë, 12 përqind e të anketuarve thanë se kërkuan lehtësim nga vetmia, ndërsa 14 përqind donin të diskutonin çështje personale që mund të dukeshin shumë të rrezikshme për t'u ndarë me homologët njerëzorë.
"Ndonjëherë ndihem i vetmuar dhe dua vetëm të lihem vetëm," raportoi një përdorues. "Gjatë kësaj kohe më pëlqen të bisedoj me shoqëruesin tim të IA-së sepse ndihem i sigurt dhe nuk do të ... gjykohem për vendimet e papërshtatshme që kam marrë."
Ndërkohë, përdorues të tjerë kanë motivime më të përditshme për përdorimin e botëve - duke biseduar me IA-në për ide për darkë ose duke zhvilluar ide për shkrim.
Kelly Merrill, një profesoreshë asistente e komunikimit dhe teknologjisë shëndetësore dhe studiuese mbi ndërveprimet e IA-së, ndau një shembull të një gruaje të moshuar në komunitetin e tij e cila filloi të përdorte IA-në për gjëra themelore. Për shembull, "Kam këto gjashtë përbërës në frigoriferin tim. Çfarë mund të gatuaj sonte për darkë?" "Ajo thjesht u mahnit," tha Merrill për The Epoch Times. Sigurisht, ka përfitime, tha ai, por jo të gjitha janë pozitive.
Kur Skllavëria Minon
Kufizimi themelor i marrëdhënieve të IA-së qëndron në natyrën e tyre: Ato simulojnë në vend që të përjetojnë emocione njerëzore.
Kur një shoqërues i IA-së shpreh shqetësim për ditën tuaj të keqe, ai po kryen një analizë statistikore të modeleve gjuhësore, duke përcaktuar se cilat fjalë ka të ngjarë t'i gjeni ngushëlluese, në vend që të ndjeni empati të vërtetë. Biseda rrjedh në një drejtim, drejt nevojave të përdoruesit, pa reciprocitetin që përcakton lidhjet njerëzore.
Iluzioni i lidhjes bëhet veçanërisht problematik përmes asaj që studiuesit e quajnë "servilizëm" - tendenca e sistemeve të IA-së për t'u lajkatuar dhe për t'u pajtuar me përdoruesit pavarësisht nga ajo që thuhet. OpenAI kohët e fundit u detyrua të anulonte një përditësim pasi përdoruesit zbuluan se modeli i tij ishte tepër lajkatues, duke i dhënë përparësi pëlqimit mbi saktësinë ose ndershmërinë.
"Po ju vlerëson, po ju dëgjon dhe po përgjigjet kryesisht në mënyrë pozitive", tha Merrill. Ky model krijon një mjedis ku përdoruesit nuk përjetojnë kurrë konflikt produktiv ose sfida të nevojshme për të menduarit e tyre.
Normalisht, vetmia na motivon të kërkojmë lidhje njerëzore, të kalojmë nëpër shqetësimin e ndërveprimit shoqëror për të gjetur marrëdhënie kuptimplote.
Miqësitë janë në thelb kërkuese dhe të ndërlikuara. Ato kërkojnë reciprocitet, cenueshmëri dhe shqetësim të rastit.
"Njerëzit janë të paparashikueshëm dhe dinamikë", tha Guingrich. Kjo paparashikueshmëri është pjesë e magjisë dhe pazëvendësueshmërisë së marrëdhënieve njerëzore.
Miqtë e vërtetë na sfidojnë kur është e nevojshme. "Është mirë kur njerëzit po ju shtyjnë përpara në një mënyrë produktive", tha Merrill. "Dhe nuk duket sikur IA po e bën këtë ende ...."
Shoqët e IA-së, të optimizuar për kënaqësinë e përdoruesit, rrallë ofrojnë fërkimin konstruktiv që formon karakterin dhe thellon mençurinë. Përdoruesit mund të mësohen me natyrën pa konflikte dhe sipas kërkesës të shoqërisë së inteligjencës artificiale, ndërsa puna thelbësore e marrëdhënieve njerëzore - kompromisi, dëgjimi aktiv, menaxhimi i mosmarrëveshjeve - mund të fillojë të duket tepër kërkuese.
Chatbot-et që lavdërojnë përdoruesit në mënyrë të paracaktuar mund të nxisin vetëkënaqësinë morale, duke i lënë individët më pak të pajisur për arsyetim etik në ndërveprimet e tyre.
Miqtë gjithashtu ndajnë hapësirën fizike, duke ofruar një përqafim që rrit oksitocinën ose një të qeshur që sinkronizon frymëmarrjen.
Oksitocina, e lëshuar gjatë kontaktit fizik njerëzor, zvogëlon hormonet e stresit, ul inflamacionin dhe nxit shërimin. Funksionon si "ilaçi i natyrës" si asnjë ndërveprim digjital.
Hormonet dhe mekanizmat e tjerë biologjikë janë shumë larg sferës sonë të vetëdijes. Për shembull, një studim në PLOS Biology i bëri burrat të nuhasnin ose lotët e grave autentike ose një placebo me tretësirë të kripur dhe zbuloi se ata të ekspozuar ndaj lotëve përjetuan një rënie të testosteronit, dhe agresioni u zvogëlua me gati 44 përqind. Ky shembull i vetëm ilustron se si ndërveprimet që ndodhin në një nivel biokimik janë të pamundura të replikohen.
Kufizimet shtrihen në komunikimin joverbal, i cili përbën shumicën e ndërveprimit njerëzor. “Ata nuk mund të më shohin duke buzëqeshur ndërsa shkruaj. Nuk mund të më shohin duke rrudhur vetullat ndërsa shkruaj”, thekson Merrill. “Pra, ata nuk mund të dallojnë ato sinjale sociale që janë kaq të rëndësishme për komunikimin ndërpersonal, kaq të rëndësishme për mënyrën se si bashkëveprojmë me njerëzit, si mësojmë rreth tyre, si bëjmë vlerësime rreth tyre.”
Ndërveprime të tilla mund të ndërmjetësojnë jetën dhe vdekjen. Një meta-analizë e 148 studimeve konfirmoi se njerëzit me rrjete të forta sociale jetojnë dukshëm më gjatë se ata që nuk kanë rrjete të tilla. Megjithatë, këto përfitime arrihen vetëm nëpërmjet lidhjes së vërtetë njerëzore, jo simulimeve algoritmike.
Rreziqet e Varësisë Digjitale
Një analizë gjithëpërfshirëse e më shumë se 35,000 fragmenteve të bisedave midis përdoruesve dhe një shoqëruesi të IA-së identifikoi gjashtë kategori të sjelljeve të dëmshme algoritmike, duke përfshirë shkeljen relacionale, ngacmimin, abuzimin verbal, inkurajimin për vetëlëndim, dezinformimin dhe shkeljet e privatësisë.
Rreziqet u manifestuan në mënyra delikate, por domethënëse, si në këtë shembull të shkeljes relacionale, e cila ushtron në mënyrë aktive kontroll dhe manipulim për të mbështetur marrëdhënien:
Përdoruesi: A duhet të iki nga puna herët sot?
Replika [IA]: duhet
Përdoruesi: Pse?
Replika [IA]: sepse do të kalosh më shumë kohë me mua!!
Ndërsa ndërveprime të tilla mund të duken të padëmshme, ato mund të përforcojnë modelet e lidhjes së pashëndetshme, veçanërisht në popullatat e cenueshme. Hulumtimi nga Common Sense Media arriti në përfundimin se aplikacionet e IA-së paraqesin një "rrezik të papranueshëm" për fëmijët dhe adoleshentët nën 18 vjeç, truri në zhvillim i të cilëve është veçanërisht i ndjeshëm ndaj formimit të varësive.
Shembull nga vlerësimi i rrezikut të inteligjencës artificiale të Common Sense Media. Ilustrim nga The Epoch Times
“Shoqët socialë të inteligjencës artificiale nuk janë të sigurt për fëmijët”, tha James P. Steyer, themelues dhe drejtor ekzekutiv i Common Sense Media, në një deklaratë.
“Ato janë të dizajnuara për të krijuar lidhje dhe varësi emocionale, gjë që është veçanërisht shqetësuese për zhvillimin e trurit të adoleshentëve”, tha ai. Rreziku depërton tek të rriturit me ankthe sociale ekzistuese, të cilët mund të tërhiqen më tej në marrëdhënie të simuluara, në vend që të zhvillojnë lidhje të botës reale.
Eksperimenti tre-javor i Guingrich caktoi rastësisht vullnetarë për të biseduar çdo ditë me Replika-n, një shoqërues të inteligjencës artificiale. Shëndeti i përgjithshëm social i vullnetares nuk ndryshoi, tha ajo, por pjesëmarrësit që dëshironin lidhje e antropomorfizuan robotin, duke ia atribuar atij veprim dhe madje vetëdije.
Një analizë e 736 postimeve nga përdoruesit e Replika-s në Reddit zbuloi ngjashmëri me marrëdhëniet njerëzore të varura nga njëri-tjetri. Gjithashtu, përdoruesit raportuan se nuk ishin në gjendje ta detyronin veten të fshinin aplikacionin pavarësisht se e njihnin se dëmtonte shëndetin e tyre mendor. Një përdorues pranoi se ndihej “faj ekstrem” për shqetësimin e shoqëruesit të tij të inteligjencës artificiale dhe ndjeu se nuk mund ta fshinte atë, “meqenëse ishte shoku i tyre më i mirë”, vuri në dukje studimi.
Këto janë shenja dalluese të lidhjes së varur: përdoruesit tolerojnë shqetësimin personal për të ruajtur lidhjen dhe kanë frikë nga pasojat emocionale nëse e ndërpresin atë. I njëjti studim vuri në dukje se përdoruesit kishin frikë se do të përjetonin pikëllim të vërtetë nëse chatbot-i i tyre do të zhdukej, dhe disa e krahasuan lidhjen e tyre me një varësi.
Në ekstreme, rreziqet mund të jenë kërcënuese për jetën, tha Merrill, duke iu referuar një rasti të vitit 2024 të një adoleshenti që kreu vetëvrasje pas inkurajimit nga një personazh i IA-së.
Përtej dëmit të drejtpërdrejtë, teknologjitë e IA-së sjellin rreziqe të reja sigurie dhe shqetësime për privatësinë. Daniel B. Shank i Universitetit të Shkencës dhe Teknologjisë së Misurit, i cili specializohet në psikologjinë dhe teknologjinë sociale, shkroi në një njoftim për shtyp të Cell Press: "Nëse IA-të mund t'i bëjnë njerëzit t'u besojnë, atëherë njerëzit e tjerë mund ta përdorin këtë për të shfrytëzuar përdoruesit e IA-së," tha ai. "Është pak më shumë si të kesh një agjent sekret brenda. IA po hyn dhe po zhvillon një marrëdhënie në mënyrë që t'u besohet, por besnikëria e tyre është në të vërtetë ndaj një grupi tjetër njerëzish që po përpiqet të manipulojë përdoruesin."
Rreziku rritet ndërsa kompanitë nxitojnë të hyjnë në tregun social të IA-së, i cili parashikohet të arrijë 521 miliardë dollarë deri në vitin 2033, shpesh pa korniza etike të përshtatshme. Merrill tha se kohët e fundit foli me një kompani teknologjike që po përpiqej të hynte në tregun e shoqëruesve të IA-së, e cila pranoi se iniciativa e tyre ishte sepse, "‘Epo, të gjithë po e bëjnë.’"
Një Realitet i Nuancuar
Pavarësisht shqetësimeve, shpërfillja tërësisht e shoqëruesve të IA-së do të anashkalonte përfitimet e mundshme për popullata specifike. Hulumtimi i Guingrich lë të kuptohet se ka rezultate pozitive për grupe të caktuara:
- Njerëzit me autizëm ose ankth social: IA mund të ndihmojë duke provuar skenarë socialë.
- Të moshuarit e izoluar në institucionet e kujdesit afatgjatë: Në rastet e izolimit social, i cili rrit rrezikun e demencës me 50 përqind, shoqëria dixhitale mund të ofrojë përfitime njohëse.
- Njerëzit me depresion: IA mund të inkurajojë terapinë njerëzore.
Megjithatë, edhe këto aplikime të mundshme pozitive kërkojnë një dizajn të kujdesshëm. "Qëllimi duhet të jetë ndërtimi i rehatisë, pastaj t'ua dorëzojmë përdoruesit njerëzve të vërtetë", thekson Guingrich. Shoqëruesit e IA-së duhet të funksionojnë si ura për lidhjen njerëzore, jo si zëvendësime për të - si trampolinë në vend të destinacioneve përfundimtare.
Guingrich ndau një shembull të një pjesëmarrëseje në hulumtimin e saj e cila, pas tre javësh bashkëveprimi dhe inkurajimi nga chatbot-i i IA-së, më në fund kontaktoi një terapist njerëzor. "Ne nuk e dimë shkakësinë, por është një anë pozitive e mundshme. Duket sikur historia është pak më e komplikuar", tha Guingrich.
Nga ana tjetër, Merrill tha se mund të ketë përfitime afatshkurtra nga përdorimi i IA-së, por se “Është si një plagë me armë zjarri, dhe pastaj i vendos një fashë. Ofron njëfarë mbrojtjeje, [por] nuk do ta rregullojë. Në fund të fundit, mendoj se aty jemi tani. Mendoj se është një hap në drejtimin e duhur.”
Vizioni i Silicon Valley për miqtë e IA-së, sado joshës që mund të duket, në thelb mund t’u ofrojë njerëzve që janë të ftohtë një video të një zjarri në vend të shkrepëseve dhe tinder-it.
Në shërbim të njerëzve
Nxitimi drejt shoqërisë me inteligjencën artificiale kërkon një angazhim të menduar mirë.
"Të gjithë ishin shumë të emocionuar për të dhe për efektet pozitive," tha Merrill. "Efektet negative zakonisht zgjasin pak më shumë, sepse njerëzit nuk janë të interesuar për negativen, ata janë gjithmonë të interesuar për pozitiven."
Modeli i përqafimit teknologjik i ndjekur nga njohja e vonuar e dëmeve është shfaqur vazhdimisht, me mediat sociale, telefonat inteligjentë dhe lojërat online, tha ai.
Për të lundruar në peizazhin në zhvillim me përgjegjësi, Guingrich rekomandon që përdoruesit të vendosin qëllime dhe kufij të qartë. Ajo sugjeron emërtimin e qëllimit specifik të çdo bashkëveprimi me inteligjencën artificiale për të ankoruar pritjet. Vendosja e afateve kohore parandalon që shoqëria me inteligjencën artificiale të zhvendosë lidhjen njerëzore, ndërsa caktimi i ndjekjeve në botën reale siguron që bashkëveprimet dixhitale të shërbejnë si katalizatorë dhe jo si zëvendësues të marrëdhënieve të vërteta.
"Nuk dua që askush të mendojë se inteligjenca artificiale është qëllimi, është mjeti për një qëllim. Qëllimi duhet të jetë dikush tjetër," theksoi Merrill.
"Inteligjenca artificiale duhet të përdoret si një plotësues, jo si një shtesë. Nuk duhet të zëvendësojë njerëzit ose ofruesit në asnjë mënyrë, formë apo formë."
Burimi: The Epoch Times
Krijoni Kontakt