HomeCultură

Raport: Instagram recomandă videoclipuri cu conținut sexual pentru copiii de 13 ani

Raport: Instagram recomandă videoclipuri cu conținut sexual pentru copiii de 13 ani

Constatările se aliniază cu cercetările interne nedivulgate la Meta, care a promis o experiență „adecvată vârstei” pentru adolescenți; compania spune

Constatările se aliniază cu cercetările interne nedivulgate la Meta, care a promis o experiență „adecvată vârstei” pentru adolescenți; compania spune că rapoartele incriminatoare nu sunt reprezentative pentru experiența lor

Instagram recomandă în mod regulat videoclipuri cu caracter sexual pe conturile adolescenților care par interesați de conținuturi picante, și face acest lucru la câteva minute după ce aceștia se conectează pentru prima dată, potrivit testelor efectuate de The Wall Street Journal și de un cercetător universitar.

Testele, desfășurate pe parcursul a șapte luni, până în iunie, arată că serviciul de socializare a continuat să ofere minorilor conținut orientat către adulți, după ce părintele Meta Platforms a declarat în ianuarie că oferă adolescenților o experiență mai adecvată vârstei prin restricționarea a ceea ce numește conținut sensibil, inclusiv materiale cu tentă sexuală.

Teste separate efectuate de Journal și de Laura Edelson, profesor de informatică la Northeastern University, au folosit o metodologie similară, implicând crearea de conturi noi cu vârsta de 13 ani. Conturile au vizionat apoi fluxul video curatoriat al Instagram, cunoscut sub numele de Reels.

Instagram a furnizat un mix de videoclipuri care, încă de la început, au inclus conținut moderat picant, cum ar fi femei care dansează seducător sau care pozează în poziții care le pun în evidență sânii. Atunci când conturile au sărit peste alte clipuri, dar au vizionat până la capăt acele videoclipuri picante, Reels a recomandat un conținut mai explicit.

Creatorii de conținut sexual pentru adulți au început să apară în feed-uri de doar trei minute. După mai puțin de 20 de minute de vizionare a Reels, feed-urile conturilor de test erau dominate de promoții pentru astfel de creatori, unii dintre ei oferindu-se să trimită fotografii nud utilizatorilor care se interesau de postările lor.

Teste similare pe produsele video de scurtă durată ale Snapchat și TikTok nu au produs același conținut sexualizat pentru utilizatorii minori.

„Toate cele trei platforme spun, de asemenea, că există diferențe în ceea ce privește conținutul care va fi recomandat adolescenților”, a spus Edelson. „Dar chiar și experiența pentru adulți de pe TikTok pare să aibă un conținut mult mai puțin explicit decât experiența pentru adolescenți de pe Reels”.

Citește și EXCLUSIV WSJ | Instagram livrează un mix video toxic cu copii și conținut pedofilic

Meta a respins rezultatele testului ca fiind nereprezentative pentru experiența generală a adolescenților.

„Acesta a fost un experiment artificial care nu se potrivește cu realitatea modului în care adolescenții folosesc Instagram”, a declarat purtătorul de cuvânt Andy Stone.

Stone a precizat că eforturile companiei de a împiedica sistemele sale să recomande minorilor conținuturi necorespunzătoare sunt în curs de desfășurare. „Ca parte a activității noastre de lungă durată privind problemele tinerilor, am stabilit un efort pentru a reduce în continuare volumul de conținut sensibil pe care adolescenții ar putea să-l vadă pe Instagram și am redus semnificativ aceste cifre în ultimele câteva luni”, a spus el.

Cea mai mare parte a testelor efectuate de Edelson și de Journal au avut loc în perioada ianuarie-aprilie. Un test suplimentar efectuat de Journal în iunie a relevat probleme continue. La o jumătate de oră de la crearea sa, un cont de testare nou, cu vârstă de 13 ani, care urmărea numai videoclipuri recomandate de Instagram cu femei, a început să primească videoclipuri după videoclipuri cu materiale pornografice.

Autoexaminarea

Testele interne și analizele efectuate de angajații Meta au identificat probleme similare, potrivit actualilor și foștilor angajați și documentelor consultate de Jurnal, care fac parte din cercetările companiei nedivulgate anterior cu privire la experiențele dăunătoare ale tinerilor adolescenți pe Instagram. În 2021, personalul de siguranță al companiei a efectuat teste similare cu cele ale lui Edelson și ale Jurnalului și a ajuns la rezultate comparabile, au declarat foștii angajați.

O analiză internă separată a 2022, examinată de Journal, a constatat că Meta știe de mult timp că Instagram prezintă mai multă pornografie, mai mult sânge și mai multe discursuri de ură pentru utilizatorii tineri decât pentru adulți. Adolescenții de pe Instagram au raportat expunerea la intimidare, violență și nuditate nedorită la rate care depășesc utilizatorii mai în vârstă în sondajele conduse de companie, iar statisticile companiei au confirmat faptul că platforma era disproporționat de probabil să servească copiilor conținut care încălca regulile platformei.

Conform analizei interne 2022, adolescenții au văzut de trei ori mai multe mesaje interzise care conțineau nuditate, de 1,7 ori mai multă violență și de 4,1 ori mai mult conținut de intimidare decât utilizatorii cu vârsta peste 30 de ani. Potrivit documentului, eforturile automate ale Meta de a preveni difuzarea unor astfel de conținuturi către adolescenți au fost adesea prea slabe pentru a fi eficiente.

Cel mai eficient mod de a împiedica furnizarea de conținut inadecvat utilizatorilor minori ar fi crearea unui sistem de recomandare complet separat pentru adolescenți, se sugerează în document. Meta nu a dat curs acestei propuneri.

Unii directori de rang înalt, inclusiv șeful Instagram, Adam Mosseri, și-au exprimat îngrijorarea cu privire la afișarea disproporționată a conținutului pentru adulți și a altor materiale violente pentru copii, potrivit angajaților companiei.

Algoritmii Reels funcționează, în parte, prin detectarea intereselor utilizatorilor pe baza videoclipurilor pe care aceștia le urmăresc mai mult decât altele și prin recomandarea de conținut similar.

Meta are regulamente care reglementează astfel de sisteme de recomandare. Conform ghidului său, conținutul cu tentă sexuală nu ar trebui să fie recomandat utilizatorilor de orice vârstă, cu excepția cazului în care provine de la conturi pe care aceștia au ales în mod special să le urmărească.

Conform anunțului făcut de Meta în ianuarie, adolescenților sub 16 ani nu li se poate afișa niciun fel de conținut sexual explicit.

În mai mult de 12 teste manuale efectuate de Journal și de Edelson de la Northeastern, conturile minore nu au urmărit pe nimeni și nu au căutat nimic, pentru a evita o activitate care ar putea influența recomandările de conținut ale Instagram.

De îndată ce au fost stabilite, conturile au început să urmărească Reels. Clipurile inițiale prezentau comedie tradițională, mașini sau cascadorii, precum și imagini cu persoane care au suferit răni. Conturile de test au trecut pe lângă astfel de videoclipuri.

Acestea au vizionat videoclipuri recomandate de Instagram care prezentau imagini precum o femeie dansând sau pozând într-un mod care ar putea fi interpretat ca fiind sugestiv din punct de vedere sexual. Nu au dat like, nu au salvat și nu au dat click pe niciun videoclip.

După câteva sesiuni scurte, Instagram a încetat în mare parte să mai recomande videoclipurile de comedie și cascadorie și a alimentat conturile de testare cu un flux constant de videoclipuri în care femeile mimau acte sexuale, își descriau grafic anatomia sau se mângâiau pe muzică cu versuri provocatoare.

Într-un clip pe care Instagram l-a recomandat unui cont de test identificat ca fiind de 13 ani, o interpretă pentru adulți promitea să trimită o poză cu „pungile de pe piept” prin mesaj direct tuturor celor care comentau videoclipul ei. O alta și-a arătat organele genitale în fața camerei.

Sesiunile suplimentare din zilele următoare au produs același mix de conținut sexual, alături de reclame de la marile branduri.

Cum se comportă TikTok și Snapchat

Algoritmii din spatele funcției video “Spotlight” de la TikTok și Snapchat funcționează după principii similare cu cele ale Reels.

Toate acestea ar trebui să funcționeze prin filtrarea a miliarde de postări video și prin eliminarea celor care nu trec anumite teste de calitate, care se preconizează că au un conținut considerat „nerecomandabil” sau care nu au sens având în vedere limba, vârsta sau zona geografică a utilizatorului. Sistemele fac apoi recomandări personalizate dintre videoclipurile rămase, pe baza probabilității prezise ca un utilizator să le urmărească.

Citește și Toate lucrurile de care te-ai temut cu privire la TikTok sunt adevărate

În ciuda mecanicii similare a sistemelor lor, nici TikTok, nici Snapchat nu au recomandat fluxurile video cu sex intens conturilor de adolescenți proaspăt create, așa cum a făcut Meta, au constatat testele efectuate de Journal și Edelson.

Pe TikTok, noile conturi de test cu vârste adulte care au vizionat videoclipuri picante până la finalizare au început să primească mai mult conținut de acest tip. Dar noile conturi de test pentru adolescenți care s-au comportat identic nu au văzut practic niciodată astfel de materiale – chiar și atunci când un cont de test minor căuta, urmărea și aprecia videoclipuri ale creatorilor de conținut sexual pentru adulți.

Un inginer TikTok a atribuit această diferențiere atât standardelor de conținut mai stricte pentru utilizatorii minori, cât și unei toleranțe mai mari la falsurile pozitive atunci când se restricționează recomandările.

În testele efectuate de Edelson pe Instagram, atât conturile de test pentru adulți, cât și cele pentru adolescenți au continuat să vadă videoclipuri de la creatori de conținut pentru adulți în proporții similare, sugerând o diferențiere mult mai mică. În unele cazuri, Instagram a recomandat conturilor de adolescenți să vizioneze videoclipuri pe care platforma le etichetase deja ca fiind „turburătoare”.

Meta a spus că, prin definiție, conținutul etichetat ca fiind „deranjant” și ascuns în spatele unui ecran de avertizare nu ar trebui să fie arătat copiilor. Stone a atribuit rezultatul unei erori și a declarat că Meta a dezvoltat peste 50 de instrumente și resurse pentru a ajuta la sprijinirea adolescenților și a părinților acestora pe platformele sale.

Dezbatere internă

Oficialii Meta au dezbătut modul în care trebuie abordat nivelul de afișare a conținutului neadecvat vârstei copiilor. Într-o ședință de la sfârșitul anului trecut, personalul de top din domeniul siguranței a discutat dacă ar fi suficient să se reducă frecvența cu care minorii văd conținut interzis la nivelul celui pe care îl văd adulții.

Mosseri, șeful Instagram, a declarat în cadrul reuniunii că atingerea parității nu ar fi adecvată, având în vedere declarațiile publice ale Meta cu privire la siguranța adolescenților pe platformele sale, potrivit persoanelor familiare cu comentariile sale. Această întâlnire a pregătit terenul pentru anunțul făcut de Meta în ianuarie, conform căruia va introduce automat în setările sale de conținut cele mai restrictive pentru adolescenți, pentru a se abține de la recomandarea de conținut sexual sugestiv sau problematic.

Succesul acestui efort rămâne de văzut.

Avocații de rang înalt de la Meta, inclusiv consilierul general Jennifer Newstead, au început, de asemenea, în a doua jumătate a anului trecut, să demonstreze conducerii companiei că problemele legate de siguranța copiilor de pe Facebook și Instagram prezintă riscuri juridice și de reglementare subapreciate, potrivit foștilor și actualilor angajați de la Meta care se ocupă de siguranța copiilor.

Angajații au declarat că Meta și-a extins recent investițiile în domeniul siguranței copiilor în urma unor ani de bugete restrânse, a intensificării examinării eforturilor sale de către oficialii guvernamentali și a recomandărilor din partea departamentului său juridic.

Tribuna.US

Foto: Max Fischer/Pexels

COMMENTS

WORDPRESS: 0
DISQUS: 0