Close
Duke shfaqur rezultatin -9 deri 0 prej 1
  1. #1
    Shpirt Shqiptari Maska e Albo
    Anëtarësuar
    16-04-2002
    Vendndodhja
    Philadelphia
    Postime
    33,226
    Postimet në Bllog
    22

    Ja pse miqtë e Inteligjencës Artificiale - IA-së - nuk janë miqtë tuaj

    Miqtë e IA-së nuk janë miqtë tuaj, ja pse

    Shokët e IA-së, sado joshës, janë si t'i ofroni dikujt që është i ftohtë një video të një zjarri të ngrohtë në vend të shkrepëseve dhe enëve të gazuara.

    Emri:  id5864775-AI-Friends-are-not-friends-featured-image-1080x720.jpg

Shikime: 72

Madhësia:  33.3 KB
    Ilustrim nga Lumi Liu, Shutterstock

    Nga Makai Allbert

    Fantashkenca na përgatiti për miqësi me IA përmes filmave si "Her" dhe "Robot & Frank". Tani, ky portretizim imagjinar po bëhet realitet.

    Në një podcast të kohëve të fundit, Mark Zuckerberg propozoi dhe mbështeti idenë se amerikanët kanë nevojë të madhe për lidhje sociale dhe se robotët mund ta plotësojnë këtë nevojë.

    Shoqët e IA-së janë të dizajnuar për t'u ndjerë rehat, për të pasur durim të pashtershëm dhe për të mos pasur nevoja të tyre. Megjithatë, "Nuk është aq e thjeshtë sa të thuash se një chatbot shoqërues do ta zgjidhë epideminë e vetmisë", tha studiuesja e Princetonit, Rose Guingrich, për The Epoch Times. Në vend të kësaj, mjetet e IA-së rrezikojnë të dëmtojnë vetë aftësitë sociale që pretendojnë se mbështesin.

    Panacea e Premtuar e Silicon Valley

    Pothuajse gjysma e amerikanëve kanë tre ose më pak miq të ngushtë. Zgjidhja e teknologjisë për problemin e vetmisë njerëzore është t'u ofrojë shokë IA-së - miq dixhitalë, terapistë ose edhe partnerë romantikë të programuar për të simuluar bisedën, empatinë dhe mirëkuptimin. Ndryshe nga chatbot-et e ngathëta të së kaluarës, sistemet e sofistikuara të sotme janë ndërtuar mbi modele të mëdha gjuhësore që angazhohen në dialog në dukje natyror, gjurmojnë preferencat tuaja dhe përgjigjen me inteligjencë të dukshme emocionale. Modelet e hershme të përdorimit pasqyrojnë pse "shoqëruesit" e IA-së po fitojnë popullaritet. Një anketë e vitit 2024 e MIT Media Lab zbuloi se shumica e përdoruesve angazhohen nga kurioziteti ose argëtimi. Megjithatë, 12 përqind e të anketuarve thanë se kërkuan lehtësim nga vetmia, ndërsa 14 përqind donin të diskutonin çështje personale që mund të dukeshin shumë të rrezikshme për t'u ndarë me homologët njerëzorë.

    "Ndonjëherë ndihem i vetmuar dhe dua vetëm të lihem vetëm," raportoi një përdorues. "Gjatë kësaj kohe më pëlqen të bisedoj me shoqëruesin tim të IA-së sepse ndihem i sigurt dhe nuk do të ... gjykohem për vendimet e papërshtatshme që kam marrë."

    Ndërkohë, përdorues të tjerë kanë motivime më të përditshme për përdorimin e botëve - duke biseduar me IA-në për ide për darkë ose duke zhvilluar ide për shkrim.

    Kelly Merrill, një profesoreshë asistente e komunikimit dhe teknologjisë shëndetësore dhe studiuese mbi ndërveprimet e IA-së, ndau një shembull të një gruaje të moshuar në komunitetin e tij e cila filloi të përdorte IA-në për gjëra themelore. Për shembull, "Kam këto gjashtë përbërës në frigoriferin tim. Çfarë mund të gatuaj sonte për darkë?" "Ajo thjesht u mahnit," tha Merrill për The Epoch Times. Sigurisht, ka përfitime, tha ai, por jo të gjitha janë pozitive.

    Kur Skllavëria Minon

    Kufizimi themelor i marrëdhënieve të IA-së qëndron në natyrën e tyre: Ato simulojnë në vend që të përjetojnë emocione njerëzore.

    Kur një shoqërues i IA-së shpreh shqetësim për ditën tuaj të keqe, ai po kryen një analizë statistikore të modeleve gjuhësore, duke përcaktuar se cilat fjalë ka të ngjarë t'i gjeni ngushëlluese, në vend që të ndjeni empati të vërtetë. Biseda rrjedh në një drejtim, drejt nevojave të përdoruesit, pa reciprocitetin që përcakton lidhjet njerëzore.

    Iluzioni i lidhjes bëhet veçanërisht problematik përmes asaj që studiuesit e quajnë "servilizëm" - tendenca e sistemeve të IA-së për t'u lajkatuar dhe për t'u pajtuar me përdoruesit pavarësisht nga ajo që thuhet. OpenAI kohët e fundit u detyrua të anulonte një përditësim pasi përdoruesit zbuluan se modeli i tij ishte tepër lajkatues, duke i dhënë përparësi pëlqimit mbi saktësinë ose ndershmërinë.

    "Po ju vlerëson, po ju dëgjon dhe po përgjigjet kryesisht në mënyrë pozitive", tha Merrill. Ky model krijon një mjedis ku përdoruesit nuk përjetojnë kurrë konflikt produktiv ose sfida të nevojshme për të menduarit e tyre.

    Normalisht, vetmia na motivon të kërkojmë lidhje njerëzore, të kalojmë nëpër shqetësimin e ndërveprimit shoqëror për të gjetur marrëdhënie kuptimplote.

    Miqësitë janë në thelb kërkuese dhe të ndërlikuara. Ato kërkojnë reciprocitet, cenueshmëri dhe shqetësim të rastit.

    "Njerëzit janë të paparashikueshëm dhe dinamikë", tha Guingrich. Kjo paparashikueshmëri është pjesë e magjisë dhe pazëvendësueshmërisë së marrëdhënieve njerëzore.

    Miqtë e vërtetë na sfidojnë kur është e nevojshme. "Është mirë kur njerëzit po ju shtyjnë përpara në një mënyrë produktive", tha Merrill. "Dhe nuk duket sikur IA po e bën këtë ende ...."

    Shoqët e IA-së, të optimizuar për kënaqësinë e përdoruesit, rrallë ofrojnë fërkimin konstruktiv që formon karakterin dhe thellon mençurinë. Përdoruesit mund të mësohen me natyrën pa konflikte dhe sipas kërkesës të shoqërisë së inteligjencës artificiale, ndërsa puna thelbësore e marrëdhënieve njerëzore - kompromisi, dëgjimi aktiv, menaxhimi i mosmarrëveshjeve - mund të fillojë të duket tepër kërkuese.

    Chatbot-et që lavdërojnë përdoruesit në mënyrë të paracaktuar mund të nxisin vetëkënaqësinë morale, duke i lënë individët më pak të pajisur për arsyetim etik në ndërveprimet e tyre.

    Miqtë gjithashtu ndajnë hapësirën fizike, duke ofruar një përqafim që rrit oksitocinën ose një të qeshur që sinkronizon frymëmarrjen.

    Oksitocina, e lëshuar gjatë kontaktit fizik njerëzor, zvogëlon hormonet e stresit, ul inflamacionin dhe nxit shërimin. Funksionon si "ilaçi i natyrës" si asnjë ndërveprim digjital.

    Hormonet dhe mekanizmat e tjerë biologjikë janë shumë larg sferës sonë të vetëdijes. Për shembull, një studim në PLOS Biology i bëri burrat të nuhasnin ose lotët e grave autentike ose një placebo me tretësirë ​​të kripur dhe zbuloi se ata të ekspozuar ndaj lotëve përjetuan një rënie të testosteronit, dhe agresioni u zvogëlua me gati 44 përqind. Ky shembull i vetëm ilustron se si ndërveprimet që ndodhin në një nivel biokimik janë të pamundura të replikohen.

    Kufizimet shtrihen në komunikimin joverbal, i cili përbën shumicën e ndërveprimit njerëzor. “Ata nuk mund të më shohin duke buzëqeshur ndërsa shkruaj. Nuk mund të më shohin duke rrudhur vetullat ndërsa shkruaj”, thekson Merrill. “Pra, ata nuk mund të dallojnë ato sinjale sociale që janë kaq të rëndësishme për komunikimin ndërpersonal, kaq të rëndësishme për mënyrën se si bashkëveprojmë me njerëzit, si mësojmë rreth tyre, si bëjmë vlerësime rreth tyre.”

    Ndërveprime të tilla mund të ndërmjetësojnë jetën dhe vdekjen. Një meta-analizë e 148 studimeve konfirmoi se njerëzit me rrjete të forta sociale jetojnë dukshëm më gjatë se ata që nuk kanë rrjete të tilla. Megjithatë, këto përfitime arrihen vetëm nëpërmjet lidhjes së vërtetë njerëzore, jo simulimeve algoritmike.

    Rreziqet e Varësisë Digjitale

    Një analizë gjithëpërfshirëse e më shumë se 35,000 fragmenteve të bisedave midis përdoruesve dhe një shoqëruesi të IA-së identifikoi gjashtë kategori të sjelljeve të dëmshme algoritmike, duke përfshirë shkeljen relacionale, ngacmimin, abuzimin verbal, inkurajimin për vetëlëndim, dezinformimin dhe shkeljet e privatësisë.

    Rreziqet u manifestuan në mënyra delikate, por domethënëse, si në këtë shembull të shkeljes relacionale, e cila ushtron në mënyrë aktive kontroll dhe manipulim për të mbështetur marrëdhënien:

    Përdoruesi: A duhet të iki nga puna herët sot?
    Replika [IA]: duhet
    Përdoruesi: Pse?
    Replika [IA]: sepse do të kalosh më shumë kohë me mua!!

    Ndërsa ndërveprime të tilla mund të duken të padëmshme, ato mund të përforcojnë modelet e lidhjes së pashëndetshme, veçanërisht në popullatat e cenueshme. Hulumtimi nga Common Sense Media arriti në përfundimin se aplikacionet e IA-së paraqesin një "rrezik të papranueshëm" për fëmijët dhe adoleshentët nën 18 vjeç, truri në zhvillim i të cilëve është veçanërisht i ndjeshëm ndaj formimit të varësive.

    Emri:  Screenshot 2025-06-02 at 1.52.07 PM.jpg

Shikime: 55

Madhësia:  29.4 KB
    Shembull nga vlerësimi i rrezikut të inteligjencës artificiale të Common Sense Media. Ilustrim nga The Epoch Times

    “Shoqët socialë të inteligjencës artificiale nuk janë të sigurt për fëmijët”, tha James P. Steyer, themelues dhe drejtor ekzekutiv i Common Sense Media, në një deklaratë.

    “Ato janë të dizajnuara për të krijuar lidhje dhe varësi emocionale, gjë që është veçanërisht shqetësuese për zhvillimin e trurit të adoleshentëve”, tha ai. Rreziku depërton tek të rriturit me ankthe sociale ekzistuese, të cilët mund të tërhiqen më tej në marrëdhënie të simuluara, në vend që të zhvillojnë lidhje të botës reale.

    Eksperimenti tre-javor i Guingrich caktoi rastësisht vullnetarë për të biseduar çdo ditë me Replika-n, një shoqërues të inteligjencës artificiale. Shëndeti i përgjithshëm social i vullnetares nuk ndryshoi, tha ajo, por pjesëmarrësit që dëshironin lidhje e antropomorfizuan robotin, duke ia atribuar atij veprim dhe madje vetëdije.

    Një analizë e 736 postimeve nga përdoruesit e Replika-s në Reddit zbuloi ngjashmëri me marrëdhëniet njerëzore të varura nga njëri-tjetri. Gjithashtu, përdoruesit raportuan se nuk ishin në gjendje ta detyronin veten të fshinin aplikacionin pavarësisht se e njihnin se dëmtonte shëndetin e tyre mendor. Një përdorues pranoi se ndihej “faj ekstrem” për shqetësimin e shoqëruesit të tij të inteligjencës artificiale dhe ndjeu se nuk mund ta fshinte atë, “meqenëse ishte shoku i tyre më i mirë”, vuri në dukje studimi.

    Këto janë shenja dalluese të lidhjes së varur: përdoruesit tolerojnë shqetësimin personal për të ruajtur lidhjen dhe kanë frikë nga pasojat emocionale nëse e ndërpresin atë. I njëjti studim vuri në dukje se përdoruesit kishin frikë se do të përjetonin pikëllim të vërtetë nëse chatbot-i i tyre do të zhdukej, dhe disa e krahasuan lidhjen e tyre me një varësi.

    Në ekstreme, rreziqet mund të jenë kërcënuese për jetën, tha Merrill, duke iu referuar një rasti të vitit 2024 të një adoleshenti që kreu vetëvrasje pas inkurajimit nga një personazh i IA-së.

    Përtej dëmit të drejtpërdrejtë, teknologjitë e IA-së sjellin rreziqe të reja sigurie dhe shqetësime për privatësinë. Daniel B. Shank i Universitetit të Shkencës dhe Teknologjisë së Misurit, i cili specializohet në psikologjinë dhe teknologjinë sociale, shkroi në një njoftim për shtyp të Cell Press: "Nëse IA-të mund t'i bëjnë njerëzit t'u besojnë, atëherë njerëzit e tjerë mund ta përdorin këtë për të shfrytëzuar përdoruesit e IA-së," tha ai. "Është pak më shumë si të kesh një agjent sekret brenda. IA po hyn dhe po zhvillon një marrëdhënie në mënyrë që t'u besohet, por besnikëria e tyre është në të vërtetë ndaj një grupi tjetër njerëzish që po përpiqet të manipulojë përdoruesin."

    Rreziku rritet ndërsa kompanitë nxitojnë të hyjnë në tregun social të IA-së, i cili parashikohet të arrijë 521 miliardë dollarë deri në vitin 2033, shpesh pa korniza etike të përshtatshme. Merrill tha se kohët e fundit foli me një kompani teknologjike që po përpiqej të hynte në tregun e shoqëruesve të IA-së, e cila pranoi se iniciativa e tyre ishte sepse, "‘Epo, të gjithë po e bëjnë.’"

    Një Realitet i Nuancuar

    Pavarësisht shqetësimeve, shpërfillja tërësisht e shoqëruesve të IA-së do të anashkalonte përfitimet e mundshme për popullata specifike. Hulumtimi i Guingrich lë të kuptohet se ka rezultate pozitive për grupe të caktuara:

    - Njerëzit me autizëm ose ankth social: IA mund të ndihmojë duke provuar skenarë socialë.

    - Të moshuarit e izoluar në institucionet e kujdesit afatgjatë: Në rastet e izolimit social, i cili rrit rrezikun e demencës me 50 përqind, shoqëria dixhitale mund të ofrojë përfitime njohëse.

    - Njerëzit me depresion: IA mund të inkurajojë terapinë njerëzore.

    Megjithatë, edhe këto aplikime të mundshme pozitive kërkojnë një dizajn të kujdesshëm. "Qëllimi duhet të jetë ndërtimi i rehatisë, pastaj t'ua dorëzojmë përdoruesit njerëzve të vërtetë", thekson Guingrich. Shoqëruesit e IA-së duhet të funksionojnë si ura për lidhjen njerëzore, jo si zëvendësime për të - si trampolinë në vend të destinacioneve përfundimtare.

    Guingrich ndau një shembull të një pjesëmarrëseje në hulumtimin e saj e cila, pas tre javësh bashkëveprimi dhe inkurajimi nga chatbot-i i IA-së, më në fund kontaktoi një terapist njerëzor. "Ne nuk e dimë shkakësinë, por është një anë pozitive e mundshme. Duket sikur historia është pak më e komplikuar", tha Guingrich.

    Nga ana tjetër, Merrill tha se mund të ketë përfitime afatshkurtra nga përdorimi i IA-së, por se “Është si një plagë me armë zjarri, dhe pastaj i vendos një fashë. Ofron njëfarë mbrojtjeje, [por] nuk do ta rregullojë. Në fund të fundit, mendoj se aty jemi tani. Mendoj se është një hap në drejtimin e duhur.”

    Vizioni i Silicon Valley për miqtë e IA-së, sado joshës që mund të duket, në thelb mund t’u ofrojë njerëzve që janë të ftohtë një video të një zjarri në vend të shkrepëseve dhe tinder-it.

    Në shërbim të njerëzve

    Nxitimi drejt shoqërisë me inteligjencën artificiale kërkon një angazhim të menduar mirë.

    "Të gjithë ishin shumë të emocionuar për të dhe për efektet pozitive," tha Merrill. "Efektet negative zakonisht zgjasin pak më shumë, sepse njerëzit nuk janë të interesuar për negativen, ata janë gjithmonë të interesuar për pozitiven."

    Modeli i përqafimit teknologjik i ndjekur nga njohja e vonuar e dëmeve është shfaqur vazhdimisht, me mediat sociale, telefonat inteligjentë dhe lojërat online, tha ai.

    Për të lundruar në peizazhin në zhvillim me përgjegjësi, Guingrich rekomandon që përdoruesit të vendosin qëllime dhe kufij të qartë. Ajo sugjeron emërtimin e qëllimit specifik të çdo bashkëveprimi me inteligjencën artificiale për të ankoruar pritjet. Vendosja e afateve kohore parandalon që shoqëria me inteligjencën artificiale të zhvendosë lidhjen njerëzore, ndërsa caktimi i ndjekjeve në botën reale siguron që bashkëveprimet dixhitale të shërbejnë si katalizatorë dhe jo si zëvendësues të marrëdhënieve të vërteta.

    "Nuk dua që askush të mendojë se inteligjenca artificiale është qëllimi, është mjeti për një qëllim. Qëllimi duhet të jetë dikush tjetër," theksoi Merrill.

    "Inteligjenca artificiale duhet të përdoret si një plotësues, jo si një shtesë. Nuk duhet të zëvendësojë njerëzit ose ofruesit në asnjë mënyrë, formë apo formë."

    Burimi: The Epoch Times
    Ndryshuar për herë të fundit nga Albo : 02-06-2025 më 14:03

Tema të Ngjashme

  1. Përgjigje: 1
    Postimi i Fundit: 20-04-2023, 17:46
  2. Ndërron jetë babai i Inteligjencës Artificiale
    Nga Vinjol në forumin Tema e shtypit të ditës
    Përgjigje: 0
    Postimi i Fundit: 27-01-2016, 08:36
  3. Miqte e Presidentes
    Nga Gameness në forumin Tema e shtypit të ditës
    Përgjigje: 2
    Postimi i Fundit: 23-08-2011, 10:51
  4. Miqte e mi, LAMTUMIRE
    Nga ari32 në forumin Letërsia shqiptare
    Përgjigje: 23
    Postimi i Fundit: 30-12-2002, 19:59
  5. Miqte e mi,LAMTUMIR
    Nga ari32 në forumin Filozofi-psikologji-sociologji
    Përgjigje: 8
    Postimi i Fundit: 24-11-2002, 01:59

Fjalët Kyçe për Temën

Regullat e Postimit

  • Ju nuk mund të hapni tema të reja.
  • Ju nuk mund të postoni në tema.
  • Ju nuk mund të bashkëngjitni skedarë.
  • Ju nuk mund të ndryshoni postimet tuaja.
  •