Fascismo 2.0 – A nova face da censura nas redes sociais
(Por Paulo Lancefield, in off-guardian.org, 21/08/2024, Trad. Estátua de Sal) O Facebook ganha apenas cerca de 34 libras por ano com o cliente médio no Reino Unido – um pouco menos de 3 libras por mês (e isso antes dos custos), logo claramente não há espaço ou motivação para um nível humano de serviço ou atenção ao cliente. O utilizador não é o cliente; em vez disso, ele é o produto cujos dados são vendidos aos anunciantes. Assim, os utilizadores não têm um relacionamento direto de cliente com a plataforma. A rede não é diretamente incentivada a “importar-se” com o utilizador antes do anunciante. E não importa onde você esteja - no espectro que vai “do valor absoluto da liberdade de expressão” até à “as entidades privadas têm o direito de censurar qualquer utilizador” -, pois, com margens tão baixas, é inevitável que o processamento da máquina tenha que ser usado para moderar publicações e lidar com a interação com o cliente. Mas, é um facto que as capacidades de processamento e gestão de clientes, que estão evoluindo agora nas Redes Sociais, estão a ser utilizadas de várias maneiras além da moderação. E também é verdade que esse processamento automatizado está sendo feito larga escala e agora é aplicado a cada publicação que cada membro faz. 68% dos eleitores dos EUA estão no Facebook. No Reino Unido, são 66% e na França, 73,2%. Os números são semelhantes para todas as nações democráticas do Ocidente. Portanto, é de vital importância que as regras aplicadas sejam politicamente neutras. O poder que existe, inerente â capacidade de processar por máquina todas as publicações dos utilizadores, é muito mais profundo do que talvez muitos julguem. E embora não possa ditar diretamente o que os utilizadores escrevem nas suas mensagens, tem a capacidade de moldar, no essencial, quais mensagens que, sendo transmitidas e partilhadas, ganham mais força. Os serviços de mídia social tornaram-se verdadeiras praças públicas e a maioria concordaria que os seus proprietários corporativos deveriam evitar colocar a mão na balança e influenciar a política. Além disso, como todos os que usam o Facebook sabem, especialmente quando se trata de tópicos politicamente sensíveis, o sistema qualificará o alcance de um indivíduo; às vezes em num grau extremo. Ou esse utilizador será simplesmente banido por um período de tempo, ou banido da rede completamente. Então, podemos fazer a seguinte pergunta: já que as corporações de mídia social têm tanto poder de censura, como podemos saber se elas não estão a envolver-se em interferências políticas antiéticas? Podemos confiar-lhes essa responsabilidade? Voltarei a essa questão, mas está claro que confiar nessas corporações é um profundo equívoco. A pandemia acordou muitas pessoas para os níveis de controlo que os responsáveis pelas redes sociais estão a impor. Eles escrevem as regras para aumentar a adesão a publicações que eles querem favorecer, tornando as contagens de seguidores de certos indivíduos mais valiosas. Por outro lado, utilizadores que vão contra a corrente (ou contra a narrativa do establishment) veem a sua divulgação subtilmente reduzida ou até mesmo boicotada, ou podem ser mesmo banidos do serviço completamente. E a prova é que, um pouco ao arrepio dos princípios democráticos, limites ao equilíbrilo do Facebook, do Twitter e do YouTube foram colocados com grande firmeza. Quando Elon Musk comprou o Twitter, ele convidou os jornalistas independentes Matt Taibbi, Bari Weiss e Michael Schellenburger para, nos escritórios do Twitter, pesquisarem as comunicações internas da empresa e ver até que ponto os proprietários anteriores estavam censurando os tweets dos utilizadores. Os Arquivos do Twitter são o resultado, e eles demonstram claramente que houve interferência em grande escala e que também, em muitos casos, foi por motivos políticos. A equipe dos Arquivos do Twitter estabeleceu que agências governamentais foram fortemente incorporadas na empresa, monitorando e censurando cidadãos dos EUA, e que agências governamentais de outras nações estavam regularmente (fortemente) a solicitar ações de censura aos seus cidadãos. Mas mais do que isso: eles também revelaram níveis semelhantes de interferência que estavam a ocorre noutras redes de mídia social, como o Facebook. Mas desde que o Twitter apresentou evidências de interferência, uma nova e potencialmente ainda maior ameaça de interferência surgiu: a IA. Houve um tempo em que parecia que algoritmos eram o único tópico de conversa que os profissionais de marketing digital podiam discutir. E como não há margem para intervenção humana no nível de publicações individuais, algoritmos era o que era usado. Para começar, elas eram bem simples, como as equações que praticávamos nas aulas de matemática da escola, e eram relativamente fáceis de resolver. A ascensão do Google foi impulsionada por uma ideia simples, mas brilhante: contar os acessos externos a uma página da internet como um indicador da sua relevância. Mas, os algoritmos deram lugar a modelos de aprendizagem artificial mais complexos que ainda, no fundo, dependem de algoritmos, mas agora são gerados automaticamente, sendo tão vastos que qualquer tentativa humana de os desvendar é inviável. Então, limitamos o nosso conhecimento sobre eles ao que eles podem alcançar, que coisas significativas podem discriminar, em vez de se saber exatamente como o código funciona. E agora entrámos numa terceira geração de tecnologia. A aprendizagem das máquinas transformou-se no desenvolvimento de Large Language Models (LLMs) ou, mais popularmente, IA. E, com essa última evolução, os gestores das corporações encontraram imensas e assustadoras novas oportunidades de poder e controlo. A criação de LLM implica formação. A formação confere-lhes competências e preconceitos específicos. O objetivo do treino é preencher as lacunas, de modo a que não haja buracos óbvios na capacidade dos LLMs para lidar com os blocos de construção da concetualização e do discurso humanos. E esta é a caraterística distintiva dos LLMs; podemos conversar com eles e a conversa flui, e a gramática e o conteúdo parecem normais, fluentes e completos. Idealmente, um LLM actua como um mordomo inglês refinado - educado, informativo e correto sem ser rude. Mas a formação também confere especializações ao LLM. No contexto das redes sociais - e é aqui que os níveis assustadores de poder começam a tornar-se evidentes - os LLMs estão a ser usados para atuar como monitores, impondo a “moderação de conteúdos”. O Llama Guard da Meta – a empresa proprietária do Facebook - é um excelente exemplo, treinado não só para moderar, mas também para informar sobre os utilizadores. E esta função de relatório incorpora não só a oportunidade de relatar, mas também, através desses dados de relatório, a exploração de oportunidades para influenciar e fazer sugestões sobre o utilizador e para o utilizador. E quando digo sugestões, um LLM é capaz não só do tipo óbvio, que o utilizador pode acolher e ficar feliz por receber, mas também de um tipo inconsciente mais desonesto, que pode ser manipulador e destinado a controlar. Ainda não há evidências reunidas (que eu saiba) de que alguns LLMs em particular estejam a ser usados dessa forma; ainda. Mas a capacidade está certamente lá e, se os comportamentos passados indiciarem os desenvolvimentos futuros, provavelmente serão usados dessa forma. Se não acredita, basta ver o episódio de 2006 do programa de televisão de Derren Brown “Derren Brown: The Heist”, em que ele convence um grupo de estranhos de que têm de cometer um assalto a um banco, para ter a noção de quão profundo e poderoso pode ser o uso da sugestão. Para quem não conhece, Derren Brown é um hipnotizador de palco e mentalista, que tende a enfatizar o poder da sugestão sobre a hipnose (a maioria dos seus espetáculos não contém qualquer hipnose). Apenas através do poder da sugestão, ele consegue que as pessoas façam as coisas mais extraordinárias. Sugestões do tipo “Derren-Brown” funcionam porque o cérebro humano é, na verdade, muito menos ágil e muito mais linear do que julgamos. A consciência é um recurso precioso e muitas ações que fazemos com frequência são transferidas para o hábito, podendo então fazê-las sem pensar, o que nos permite preservar a consciência para quando e onde ela é mais necessária. Por hábito, mudamos de velocidade num carro de mudanças manuais sem ter de pensar nisso. E todos nós já experimentámos aquele jogo em que temos um tempo determinado para pensar numa lista de coisas, como países, que terminam com a letra A. Se formos colocados nessa situação, em frente a uma multidão, pode por vezes ser difícil pensar em qualquer coisa. Muitas vezes, o cérebro não é assim tão bom a pensar de forma criativa ou a evocar uma recordação rápida e consciente no momento. Mas, se alguém com quem você falou alguns minutos antes do jogo lhe contou sobre as suas férias no Quénia, você pode ter certeza de que Quénia será a primeira resposta a surgir na sua cabeça. Mais do que isso, a associação acontecerá automaticamente, quer queiramos ou não! É simplesmente assim que o cérebro funciona. Se a informação for transmitida no momento certo e da maneira certa, pode ter quase a certeza absoluta de que a sugestão dada será seguida. Derren Brown entende isso e é um mestre em o explorar.
O professor e investigador Dr. Robert Epstein - por assim dizer - “apanhou o Google” a manipular a caixa de sugestões de pesquisa que aparece por baixo da caixa de texto onde os utilizadores introduzem um pedido de pesquisa. O episódio tornou-se ainda mais sórdido quando se tornou claro que estavam a ser enganadores e que tinham a perfeita consciência de que as suas experiências não eram éticas. Não vou contar todos os pormenores, mas vejam as hiperligações para este caso – é, só por si, uma história bem interessante. Os utilizadores estão num estado mental particularmente confiante e recetivo quando utilizam as hiperligações sugeridas pelo Google e não se apercebem quando os resultados contêm sugestões de ação e imperativos que, longe de serem a melhor resposta à pesquisa realizada, estão lá para manipular as acções subsequentes do utilizador. Em relação às publicações nas redes sociais, a utilização de sugestões é frequentemente muito mais subtil, o que torna mais difícil a sua deteção e resistência. A análise LLM da base de dados das publicações dos utilizadores pode revelar publicações relacionadas que fornecem sugestões de acções. Neste caso, a rede pode utilizar o facto de ter muitos milhões de mensagens de utilizadores à sua disposição, incluindo mensagens que sugerem resultados preferidos. Essas mensagens podem ser selecionadas e promovidas preferencialmente nos feeds dos utilizadores. A moderação de conteúdo é, claro, necessária para lidar com linguagem inaceitável e comportamentos antissociais. No entanto, há uma grande área cinzenta onde opiniões desagradáveis podem ser rotuladas como “discurso de ódio” e, por ser uma área cinzenta, há muita margem de manobra para a rede social se intrometer na política pessoal e no espaço da liberdade de expressão. O termo “discurso de ódio” tem sido um dispositivo muito eficaz para justificar o uso do “martelo da proibição”, mas a principal preocupação agora é que, com a implantação dos LLMs, um grande marco histórico passou com apenas um sussurro, o que implica um nível totalmente novo de tais restrições e ameaças à liberdade de comunicação dos utilizadores. E esse marco é que agora os LLMs estão a ser usados para governar o comportamento humano e não o contrário. A passagem deste marco quase não foi notada porque já anteriormente tínhamos algoritmos mais simples a desempenhar esse papel e, de qualquer forma, tal não é feito às claras. Os utilizadores só se apercebem disso quando são afetados por isso de uma forma óbvia. Mas, mesmo assim, há amplas razões para pensar que, no futuro, poderemos olhar para trás e reconhecer que, este marco, foi uma espécie de momento crítico, após o qual se tornou inevitável caminharmos para uma versão de um futuro semelhante à “Sky-Net”. Na semana passada, o primeiro-ministro do Reino Unido, Keir Starmer, anunciou uma iniciativa da polícia para utilizar as redes sociais para identificar as pessoas envolvidas na repressão da desordem pública, ilustrando a forma como os relatórios automatizados do LLM estão prontos a ser utilizados para além das redes sociais e no contexto da aplicação da lei. Ainda não há pormenores sobre a forma como esta monitorização será feita, mas, tendo experiência de apresentação de projectos tecnológicos, pode ter a certeza de que o governo terá uma lista de empresas de tecnologia a sugerir soluções. E pode ter a certeza de que os LLM estão a ser propostos como parte integrante de quase todos eles! Assim, estabelecemos que os meios de comunicação social são fechados e proprietários e permitiram aí a criação de novas estruturas de poder. Vimos que os proprietários dos meios de comunicação social têm o poder de suprimir ou aumentar a viralidade de uma publicação e implementaram agora o policiamento e a comunicação por LLMs (IA), que parece estar prestes a alargar-se ao policiamento do mundo real. Vimos também, através dos ficheiros do Twitter, que as empresas de redes sociais violaram a lei durante a pandemia e mostraram vontade de colaborar com as agências governamentais para censurar e suprimir opiniões desfavoráveis. Nota: Paul Lancefield é o autor do Desilo , um aplicativo para ajudar a virar o jogo contra a censura da IA e a deturpação política. Se você concorda com Paul sobre o perigo que a IA representa para a liberdade de expressão, você pode ajudar simplesmente seguindo-o no X. |
Sem comentários:
Enviar um comentário