E ciudat, nu? Cu cât avem acces la mai multă informație, cu atât suntem deficitari în a ne informa: corect, complet, edificator. Tehnologia a făcut
E ciudat, nu? Cu cât avem acces la mai multă informație, cu atât suntem deficitari în a ne informa: corect, complet, edificator.
Tehnologia a făcut un salt uriaș în ultima vreme, ceea ce ar fi trebuit să fie la îndemâna capabilităților noastre de a pune mâna pe informație. Dar realitatea demonstrează total altceva: indiferent de câte resurse și instrumente tehnologice avem la dispoziție, în lipsa principiilor și disciplinei care să ne ghideze practica de informare, suntem neinformați, dezinformați, păcăliți ușor.
ChatGpt și alți chatboți ar trebui să ne facă munca de informare mai ușoară, corelând și compilând rapid informații diverse – și de cele mai multe ori o și face.
Însă, există două riscuri:
- Lenevirea creierului în procesul de învățare, educare
Orice aplicație de chatbot este ideala atunci când ne documentăm, dar a ne baza exclusiv pe ele, fără a compensa cu propria căutare, citire și corelarea de informații și evenimente ne conduce la ceea ce și specialiștii spun, tâmpire.
Medical spus, o atrofiere a creierului, implicit a capacității cognitive și intelectuale.
- Manipularea chatboților
Tot din aceeași lipsă de preocupare pentru o documentare personală, dar în categoria celor care folosesc aplicațiile constant, suntem tentați să luăm ca bună orice informație oferită de ChatGpt sau alte AI-uri.
Doar că recente investigații media și de intelligence au descoperit operațiuni statale de influențare și manipulare a chatboților pe teme sociale și politice actuale, globale.
Una dintre aceste operațiuni se numește 𝑃𝑜𝑖𝑠𝑜𝑛𝑖𝑛𝑔 𝐿𝐿𝑀𝑠 – o propagandă pentru AI și manipulare a chatboților.
Rusia, de exemplu, creează mii de articole false menite nu doar să influențeze oamenii, ci și modelele AI — aceasta afectând răspunsul chatboților despre subiecte sensibile (ex. arme biologice americane în Ucraina), creând confuzie.
La aceeași metodă de 𝑑𝑎𝑡𝑎 𝑝𝑜𝑖𝑠𝑖𝑛𝑖𝑛𝑔 recurg țări totalitare și în război direct cu lumea occidentală, regimuri precum China, Iran, Coreea de Nord sau organizații teroriste ca Hamas. Așa că atunci când ceri ChatGpt-ului să îți dea informații despre Ucraina, ai toate șansele să-ți spună că Rusia atacă justificat și legal țara vecină.
- Informare, verificare, fundamentare
E de notorietate faptul că mulți se înghesuie să dea „știri” primii, de aceea și numeroși oameni sunt păcăliți doar cu poze cu text pe ele sau cu reels-uri stupide.
Însă, o informare completă ia timp, iar rapiditatea cu care se poate face este direct proporțională cu capacitatea și experiența fiecăruia de a naviga pașii corecți și necesari pentru a obține o informație înainte de a o asimila și, mai ales, disemina.
- Responsabilitate individuală și colectivă
În concluzie, ChatGpt și tehnologiile similare nu sunt nici bune, nici rele în sine – ele reflectă datele și intențiile celor care le alimentează. Problema nu este doar ce informație ni se oferă, ci și cum alegem să o folosim.
Responsabilitatea rămâne la noi: să ne educăm spiritul critic, să comparăm surse, să punem întrebări incomode și să nu luăm de bun tot ce „sună” logic sau spectaculos.
Altfel, riscăm să ne transformăm din utilizatori ai tehnologiei în simple instrumente manipulate prin tehnologie.
Timotei Dinică



COMMENTS