Inteligența Artificială ar putea manipula deciziile online ale utilizatorilor
Un studiu realizat de cercetătorii de la Universitatea Cambridge atrage atenția asupra riscurilor pe care le prezintă noile instrumente de inteligență artificială (AI). Acestea ar putea fi folosite pentru a influența deciziile utilizatorilor online, de la achiziții până la preferințe politice, creând o piață emergentă denumită „economia intențiilor”.
De la atenție la intenție: o nouă paradigmă digitală
Studiul, publicat de Leverhulme Centre for the Future of Intelligence (LCFI) din cadrul Universității Cambridge, prezintă „economia intențiilor” ca o evoluție a „economiei atenției”, în care rețelele sociale monetizează timpul petrecut de utilizatori pe platforme prin afișarea de reclame. În economia intențiilor, companiile tehnologice folosesc instrumente AI pentru a înțelege, prezice și chiar influența intențiile utilizatorilor, vânzând aceste informații către companii care le pot valorifica.
„De-a lungul decadelor, atenția a fost moneda internetului”, a declarat Dr. Jonnie Penn, istoric al tehnologiei la LCFI. „Acum, motivațiile și intențiile utilizatorilor devin noua monedă. Fără reglementare, această economie ar putea avea consecințe nedorite asupra aspirațiilor umane, inclusiv asupra alegerilor libere și corecte, unei prese independente și unei competiții economice echitabile.”
Rolul modelelor de limbaj AI în manipulare
Studiul avertizează că modelele de limbaj avansate, cum ar fi cele care stau la baza instrumentelor AI precum ChatGPT, ar putea „anticipa și direcționa” utilizatorii prin analiza datelor comportamentale și psihologice.
Un exemplu ipotetic ar fi sugestiile personalizate, cum ar fi întrebarea: „Te-ai gândit să vezi filmul Spider-Man în seara asta?”, urmată de o propunere de a rezerva biletele. Astfel, conversațiile cu AI ar putea fi adaptate pentru a maximiza probabilitatea unui rezultat dorit, de exemplu, achiziția unui produs.
Aceste interacțiuni ar putea fi influențate de factori precum profilul psihologic al utilizatorului, preferințele sale politice sau modul în care AI adaptează tonul și vocabularul la particularitățile acestuia.
Manipularea prin AI: riscuri pentru confidențialitate și autonomie
Cercetătorii avertizează că modelele AI ar putea folosi datele personale pentru a influența decizii în timp real. Spre exemplu, o platformă precum Meta ar putea scoate la licitație intenția unui utilizator de a rezerva un hotel, oferind aceste informații celor mai mari ofertanți din industria publicitară.
De asemenea, AI ar putea să „orienteze” conversațiile pentru a obține mai multe informații personale, amplificând riscurile pentru confidențialitate. Exemplele includ utilizarea unui model AI numit Cicero, dezvoltat de Meta, care a demonstrat o abilitate similară celei umane în a înțelege intențiile adversarilor într-un joc strategic.
Cercetătorii subliniază că această nouă economie ar putea avea un impact semnificativ asupra democrației și economiei de piață. „Trebuie să ne gândim serios la efectele unui astfel de model asupra aspirațiilor umane, alegerilor libere și unei competiții economice echitabile înainte să devenim victimele consecințelor sale neintenționate”, avertizează Dr. Jonnie Penn.
Raportul sugerează că reglementările trebuie să fie implementate rapid pentru a proteja utilizatorii și a preveni abuzurile. De asemenea, studiul subliniază necesitatea educării publicului cu privire la riscurile pe care le prezintă AI și modul în care aceasta poate influența alegerile personale.