Justin Lane este expert în domeniul inteligenței artificiale (AI) și antreprenor, instruit la Universitatea Oxford, care nu are răbdare pentru teorii
Justin Lane este expert în domeniul inteligenței artificiale (AI) și antreprenor, instruit la Universitatea Oxford, care nu are răbdare pentru teorii prostuțe. Cercetările sale cuprind domeniul cognitiv – atât uman cât și artificial – precum și cel al religiei și conflictului.
Acest lucru a dus la o muncă de teren fascinantă în Irlanda de Nord, unde a studiat îndeaproape armata republicană irlandeză și extremiștii Asociației de Apărare a Ulsterului. În cele din urmă, el a folosit cercetările umaniste în programarea AI și la simulări pe calculator bazate pe interacțiuni, analizează un articol TheFederalist.
Cumva, a ajuns student în Baltimore, Maryland, ca liberal Green Party și s-a detașat de mediul academic din Anglia ca susținător al celui de-al Doilea Amendament. El se descrie acum ca fiind un om politic moderat, cu „o înclinație libertariană“.
Când l-am întâlnit prima dată, Lane lucra la Centrul pentru Gândire și Cultură din Boston. Complet corupt de capitalism, promițătorul academician a co-fondat o companie internațională de analiză a datelor care lucrează cu clienți corporatiști și universitari de top. Este unul dintre acei Mr. Smith care apasă butoanele în Matrix, dar ne explică cu drag nouă, prizonierilor umani, cum stau lucrurile.
Din spatele laptopului meu, acea cupolă tehnocrată arată ca un nor negru de furtună care plouă jumătăți de adevăruri și banalități otrăvitoare. Ochi robotici cercetează în întuneric, urmărind cum se dizolvă sufletele noastre.
Lane este mai optimist. El mă asigură că lumea tehnologiei este doar o serie de instrumente complexe. Cheia este să știi cum să le folosești corect. Binevoitorul academician mi s-a alăturat virtual la o cafea (el este în Slovacia, eu sunt în America).
Din perspectiva ta ca analist de rețea, cum arată oamenii de rând priviți de cei de sus? Sunt paranoic sau chiar vor să ne facă rău?
JUSTIN LANE: Companii precum Google, Facebook sau Twitter – sau companii de analiză a datelor, cum este și a mea -, acumulează cantități masive de date despre utilizatori. Asta este ceea ce majoritatea oamenilor numesc în ziua de azi drept „Big Data“.
Ceea ce fac majoritatea companiilor este să analizeze ansamblul de date, observând care sunt tiparele. De obicei, conținutul specific al informațiilor postate nu prezintă interes pentru companie, cercetător de date sau algoritmii acestora. Sunt doar sisteme de inginerie care pot învăța aceste tipare, astfel încât să poată monitoriza și crește implicarea utilizatorilor individuali.
Cu toate acestea, undeva într-o bază de date, aceste informații există detaliate individual. Poate că la Twitter, sau într-o bază de date corporatistă, sau undeva într-o bază de informații. Acele informații personale pot fi folosite în scopuri infame. Există implicații etice evidente.
Luați în considerare utilizarea informațiilor în China, unde, dacă spuneți ceva rău despre regim, scorul dvs. de credit social scade. Nu îl privesc în mod necesar în ansamblu, ci spun: „Tu ai spus azi ceva critic față de guvern, așa că acum nu poți cumpăra bilet de tren“.
Aș spune că ceea ce face China în prezent este cel mai apropiat lucru de genul de coșmar distopic de care ne temem cu toții, în timp ce majoritatea corporațiilor americane sunt mai interesate de faptul că sunt plătite pentru numărul de click-uri pe care le produc. Cred că este o diferență esențială.
Nu se poate manipula cu ajutorul acestei vaste cartografii a opiniei publice – dincolo de campania de colectare a datelor a lui Barack Obama sau povestea Cambridge Analytica a lui Donald Trump?
JL: Posibilitatea de manipulare a opiniei publice este uriașă. Utilizatorul de rând este manipulat și activ și pasiv.
Sunt manipulați activ în sensul că oricine a pornit vreodată un televizor sau un radio a fost manipulat. Marketingul există pentru a ne manipula, asigurându-ne că atunci când avem nevoie de ceva, avem nevoie exact de o anumită marcă. În asta constă genialitatea publicității. Se poate scala la un nivel pe care nu ni l-am imaginat niciodată, având în vedere datele pe care social media le deține și numărul de persoane prezente pe o singură platformă.
În același timp, există și manipulare pasivă, care are legătură cu conținutul pe care o companie îl permite pe site-ul său – modul în care produc și modifică, prin algoritmi, informațiile pe care le vedem.
Dintr-o perspectivă psihologică, știm că cu cât repeți mai mult o informație, cu atât ai mai multe șanse să ți-o amintești. Numim asta „proces de învățare“. Prin urmare, atunci când o platformă de socializare decide că va cenzura un anumit tip de informații, decide de fapt că nu le va permite utilizatorilor să rețină ușor informații despre subiectul respectiv.
Într-o anumită măsură, acest lucru se face în moduri care cred că pot fi imperative din punct de vedere etic, acolo unde există anumite circumstanțe, cum ar fi vătămarea copiilor sau atacarea persoanelor neajutorate. Dar editarea opiniilor utilizatorilor este o zonă gri. Pe cine protejezi prin eliminarea anumitor discursuri politice? Pe cine protejezi prin practica interzicerii unor utilizatori?
În această privință suntem în mod evident manipulați. Dacă acest lucru este bun sau rău, depinde în mare măsură de ce parte a spectrului politic ești, pentru că se pare că au parte de asta mai mult vocile conservatoare decât cele liberale. Se observă mult acest lucru în diferența dintre „Ce este discursul de ură?“ și „Ce discurs urăști?“
Există polițiști AI care ne controlează discursul pe aceste platforme?
JL: Da, cu siguranță. Facebook raportează că peste 90% din semnalizările inițiale pentru conținut ofensator sunt realizate algoritmic, prin sisteme de inteligență artificială. Acestea sunt revizuite ulterior de factori umani. Și se auto-instruiește de fapt AI, pe baza conținutului semnalat.
Aceasta este doar o speculație, dar dacă conservatorii sunt cenzurați mai mult decât liberalii, se poate datora faptului că anumite predispoziții politice sunt mai susceptibile la a fi jignite. Așadar, cenzura părtinitoare pe care o vedem în prezent în social media s-ar putea să nu fie în întregime determinată de prejudecățile politice ale proprietarilor de companii de tehnologie, ale cenzorilor sau ale oamenilor de știință care proiectează algoritmii.
Deoarece Facebook folosește zecile de milioane de raportări ale utilizatorilor ce semnalează conținut ofensator pentru a-și instrui algoritmii, o parte a părtinirii politice a sistemului ar putea reflecta vocile care se aud mai puternic. Dacă conservatorii nu se implică activ în semnalarea conținutului, atunci nu înclină balanța în baza de date, iar opiniile lor nu vor fi reflectate de acești algoritmi.
Un lucru pe care conservatorii l-ar putea face – ar fi foarte interesant de văzut în ce măsură funcționează acest lucru pe Facebook – este ca atunci când văd ceva despre care știu că ar fi semnalat dacă situația ar fi inversată, să îl semnaleze ca ofensator. Este foarte posibil ca algoritmii de pe site-urile de socializare să învețe că discursul de stânga este ofensator și să schimbe modul în care conținutul este semnalat. Ar fi un experiment social interesant.
Având în vedere că ai crescut într-un mediu conservator, cum a fost experiența ta în mediul academic?
JL: După licență, m-am dus în Europa, deoarece era singurul loc în care puteam studia simularea computerizată a comportamentului uman în felul în care îmi doream. Am mers mai întâi la Belfast, unde natura umană și convingerile culturale au o istorie foarte lungă de violență.
Acest lucru se întâmplă în Regatul Unit, unde nu ai voie să deții arme. Cu toate acestea, mii de oameni au fost uciși cu arme și bombe în perioada conflictului irlandez. Acest lucru mi-a confirmat din nou, într-un fel, convingerea nou formată că natura umană este mult mai importantă decât orice lege creată de om.
Apoi am ajuns la Oxford, unde practic trăiam în două lumi diferite. Pe de o parte, eram membru activ al Societății Hayek, o societate economică libertariană care organiza evenimente comune cu tot felul de oameni. Lectorii invitați se exprimau critic față de problemele de economie, libertate și moralitate.
Pe de altă parte, experiența mea privind cultura generală a campusului a fost că poți participa la o dezbatere numai atâta timp cât faci parte dintr-un cor de persoane care sunt de acord cu tine.
Aceasta este o problemă importantă în cadrul universităților Ivy League. Universitatea Brown a monitorizat numărul de vorbitori conservatori care țin discursuri în campus – undeva peste 90 la sută din toți vorbitorii din campusurile universitare din Statele Unite sunt liberali sau înclină spre stânga. Asta face parte din același tip de mediu-ecou care există chiar și la Oxford, deși ei stau mult mai bine decât alte universități. De asemenea, Universitatea din Chicago încă este un bastion al liberei exprimări.
Când mi-am terminat cercetările la Oxford, am făcut o activitate post-doctorală la Universitatea din Boston și a fost un șoc și o realizare bruscă a cât de rău a ajuns sistemul universitar american ca instituție de învățământ. Nu înseamnă că nu promovează deloc gândirea critică, ci că promovează doar răspunsuri regurgitate.
Dacă concluzia ta nu este cea a teoreticienilor critici – oameni care sunt practic neo-marxiști, cercetători ai intersecționalității – atunci nu ești binevenit să-ți exprimi opinia. Și dacă o faci, riști să fii anulat. A condus la o formă de autoritarism și extremism care cred că este foarte nesănătoasă.
Profesorul Ibram X. Kendi de la Universitatea din Boston [fondatorul noului Centru de Cercetare Antirasistă], a făcut comentarii care pot fi interpretate atât drept rasiste, cât și transfobice. Cu toate acestea, el este aclamat de universitate. Dar universitatea nu va susține republicanii din campus care pun la îndoială afirmațiile lui Kendi atunci când sunt atacați de organizațiile studențești de stânga. Din păcate, acest tipar pare să ia amploare peste tot în Statele Unite.
Tribuna.US
COMMENTS