SAPIENS. E' scontro alle audizioni delle Big tech in USA

SAPIENS. E' scontro alle audizioni delle Big tech in USA

big tech

Dal 2018, Il CEO di Facebook Mark Zuckerberg è stato chiamato “a rapporto” dalla Camera dei Rappresentanti sette volte, il CEO di Twitter Jack Dorsey cinque e Sundar Pichai, CEO di Alphabet Inc., che possiede Google e YouTube, quattro. Quella di giovedì 25 marzo è stata la prima dall’avvento di Biden e dall’esplosione di violenza a Capitol Hill del 6 gennaio scorso. Tutto questo lavorìo, tuttavia, non ha prodotto alcuna norma per rivedere la sezione 230 del Communications Decency Act, adottato nel 1996 dal Congresso.

La sezione 230 ha determinato gli standard legali di base che disciplinano un enorme numero e varietà di social media e aziende di internet. Grazie ad essa, le aziende sono in gran parte libere da vincoli legali e possono impunemente mettere in atto pratiche che sarebbero perseguibili se intraprese fuori da internet.

Allo stato, sono molti i progetti di legge proposti per modificare la Sezione 230, per lo più marginalmente.

Uno di essi prevede che le società online soddisfino determinate condizioni prima di ottenere le protezioni legali della Sezione 230. Ad esempio, esse dovrebbero riferire alle forze dell'ordine quando ritengono che qualcuno stia tramando crimini violenti o connessi allo spaccio di droga. Nel caso in cui non lo facciano, potrebbero perdere le protezioni legali della Sezione 230 e subire così cause legali.

Un altro disegno di legge proposto richiederebbe a Big Tech e alle altre società di dimostrare di non aver mostrato pregiudizi politici nella rimozione di un post.

Un’altra proposta prevede di impedire di utilizzare la Sezione 230 come difesa in casi legali che coinvolgono attività come violazioni dei diritti civili, molestie e morte ingiusta. Un’altra ancora di consentire alle persone di citare in giudizio le società Internet se le immagini di abusi sessuali su minori vengono diffuse sui loro siti.

Un progetto, invece, si concentra anche sugli algoritmi e sul loro uso. Vi è stato un caso eclatante, dopo il quale alcuni esperti legali e legislatori hanno affermato che le protezioni legali della Sezione 230 non avrebbero dovuto essere applicate, e che la società avrebbe dovuto essere considerata complice di atti terroristici. Facebook è stata citata in giudizio dai genitori di Taylor Force, 28 anni, ucciso a Jaffa da un membro di Hamas, I loro avvocati hanno sostenuto che Facebook ha fornito ad Hamas "un algoritmo altamente sviluppato e sofisticato che facilita la capacità di Hamas di raggiungere e coinvolgere un pubblico che altrimenti non potrebbe raggiungere in modo altrettanto efficace” e che “gli algoritmi di Facebook non solo hanno amplificato i post, ma hanno aiutato Hamas raccomandando gruppi, amici ed eventi agli utenti”.

Il giudice distrettuale si è pronunciato contro le accuse, citando la sezione 230. Gli avvocati della famiglia Force hanno proposto appello, e due dei tre giudici della Corte hanno confermato il verdetto di primo grado. Il terzo giudice, Katzmann, ha invece scritto un dissenso di 35 pagine su una parte della sentenza, sostenendo che le raccomandazioni algoritmiche di Facebook non dovrebbero essere coperte dalle protezioni legali. La Corte suprema ha dato ancora torto alla famiglia Force, ma in una dichiarazione allegata alla decisione del tribunale, il giudice Thomas ha chiesto di valutare se le protezioni della sezione 230 fossero state estese troppo, citando la causa del signor Force e l'opinione del giudice Katzmann, aggiungendo che la corte non aveva bisogno di decidere al momento se frenare le protezioni legali. "Ma in un caso appropriato, è opportuno che lo faccia".

In questo clima, l’audizione dei giorni scorsi, durata cinque ore, è stata contrassegnata da una raffica di accuse dei legislatori nei confronti delle Big tech presenti, che si sono difese attaccando e ammettendo eccezionalmente qualche responsabilità .

Zuckerberg ha respinto l'idea che i social media siano dannosi per i bambini. Addirittura, ha affermato che, secondo una ricerca, l'utilizzo di app social per connettersi ad altre persone può avere benefici per la salute. Facebook starebbe pensando a una versione del suo prodotto Instagram per i bambini sotto i 13 anni che potrebbe unirsi a YouTube Kids per creare una piattaforma rivolta ai giovani utenti.

I legislatori democratici hanno avanzato diverse idee oltre alla modifica della Sezione 230, come quella che prevede una nuova entità pubblica per supervisionare il mondo online e assumere alcune decisioni che le aziende ora prendono sulla moderazione dei contenuti. Un altro democratico ha affermato che le piattaforme delle società hanno svolto un ruolo centrale nei disordini dopo le elezioni del novembre 2020 e che il governo ha bisogno di regolamenti e "autorità di controllo" sulla tecnologia dei social media.

Pressato sul ruolo di Facebook per gli eventi del 6 gennaio, Zuckemberg ha ribattuto sottolineando la responsabilità di Trump responsabile per le sue parole e delle persone che hanno infranto la legge per le loro azioni.

Secondo lo stesso Ceo, la divisione odierna è il risultato di un ambiente politico e mediatico che allontana le persone, pur riconoscendo che i contenuti relativi a Capitol Riot sono stati pubblicati su Facebook

Twitter commette errori, secondo il suo Ceo, ma lo stesso ha messo in guardia i legislatori su un mondo senza rimozione di contenuti. "Se domani ci svegliassimo e decidessimo di smettere di moderare i contenuti, ci ritroveremmo con un servizio che pochissime persone o inserzionisti vorrebbero utilizzare".

In questo momento, tra repubblicani e democratici c’è una certa generica identità di vedute sulla necessità di intervenire per mitigare il potere del web, ma rimangono distinguo non di poco conto. Molti repubblicani pensano che le piattaforme di social media stiano rimuovendo troppi contenuti ai sensi della Sezione 230, mentre i democratici ritengono che non facciano abbastanza consentendo la diffusione di contenuti dannosi.

Quando un legislatore democratico ha chiesto ai dirigenti di rispondere con un "sì" o un "no" se le piattaforme avevano una qualche responsabilità per la disinformazione che aveva contribuito alla rivolta, Jack Dorsey di Twitter ha detto "sì", gli altri due non hanno risposto.

Al centro dell'audizione c'erano domande sul fatto che le aziende avessero un incentivo finanziario per mantenere gli utenti coinvolti - e facendo clic sugli annunci - alimentando loro contenuti divisivi, estremi e odiosi. I legislatori di entrambe le parti hanno affermato che il Congresso dovrebbe riconsiderare una legge che protegge le aziende da azioni legali sui contenuti pubblicati dai propri utenti.

I legislatori hanno anche criticato le piattaforme per il modo in cui hanno consentito la diffusione di disinformazione sulla pandemia di coronavirus e sui vaccini per Covid-19. Una democratica della California ha incalzato il Ceo di Twitter che, a suo avviso, dovrebbe eliminare tutta la disinformazione di Covid e non etichettare o ridurre la sua diffusione.

Le critiche di molti repubblicani hanno avuto per oggetto l'amplificazione di contenuti tossici che danneggiano particolarmente i bambini, tanto che una di loro ha confessato che i social media sono la sua più grande preoccupazione come genitrice: "Ho monitorato dove li conducono i tuoi algoritmi, ha detto rivolgendosi a Zuckemberg. È spaventoso, e so di non essere la sola a pensarlo".

Secondo lo stesso Zuckemberg, la disinformazione delle elezioni è stata diffusa nelle app di messaggistica, dove l'amplificazione e gli algoritmi non possono incidere sulla diffusione di contenuti falsi. Ha anche incolpato la televisione e altri media tradizionali per aver diffuso menzogne ​​elettorali.

Ha proposto inoltre, quasi in linea con un progetto di legge giacente al Congresso, che la tutela della responsabilità per le società sia subordinata alla loro capacità di combattere la diffusione di determinati tipi di contenuti illegali: le piattaforme dovrebbero essere tenute a dimostrare di disporre di sistemi per identificare i contenuti illegali e rimuoverli. Le riforme, ha continuato, dovrebbero essere diverse per i social network più piccoli, che non avrebbero le stesse risorse come Facebook per soddisfare i nuovi requisiti.

I Ceo di Twitter e Alphabeth (Google) hanno affermato di sostenere i requisiti di trasparenza nella moderazione dei contenuti, ma non sono stati d'accordo con le altre idee di Zuckerberg. Il primo ha aggiunto che sarebbe molto difficile distinguere una piattaforma grande da una più piccola.

Particolarmente duro un rappresentante repubblicano dell’Ohio, secondo cui gli amministratori delegati di Big tech sono come quelli delle grandi aziende del tabacco, facendo riferimento agli effetti che il cyberbullismo, l'estremismo e la dipendenza dallo schermo hanno sui bambini: “Big Tech sta essenzialmente dando ai nostri figli una sigaretta accesa e sperando che rimarranno agganciati per tutta la vita".

In sostanza, l’attesissimo appuntamento del 25 marzo non è servito granché ad avvicinare le posizioni tra i legislatori e i potenti della Silicon Valley. Ma l’ora del cambiamento dovrebbe scoccare al più presto, anche per la nota posizione dell’Amministrazione Biden sul tema.