O Filtro

segunda-feira, abril 02, 2018


"Se você não está pagando por alguma coisa, você não é o cliente; você é o produto à venda", Andrew Lewis

Eli Pariser é o chefe executivo da Upworthy, presidente do conselho da MoveOn.org e co-fundador da Avaaz.org. Também ativista da internet, escreveu um livro sobre a filtragem de informações e conteúdo na internet. Em seu livro, O Filtro Invisível - O que a Internet está Escondendo de Você, o autor nos apresenta às estratégias utilizadas pelas corporações - como Facebook, Amazon e Google -  para controlar a atividade on-line de seus usuários, buscando explicar como se formam as bolhas de  informação, como elas funcionam, e o risco que viver confinado a elas pode nos causar.





Fichamento

O Filtro Invisível: o que a internet está escondendo de você
(Eli Pariser)

1. A Corrida pela Relevância

“A chave para o futuro da televisão”, [Negroponte] escreveu, “é pararmos de pensar na televisão como uma televisão” e começarmos a pensar nela como um aparelho com inteligência. Os consumidores precisavam era de um controle remoto que controlasse a si mesmo, um auxiliar inteligente e automatizado que aprendesse a que cada pessoa assistia e então selecionasse os programas relevantes para ela. “Os aparelhos de TV atuais permitem que controlemos o brilho, o volume e o canal”, escreveu Negroponte. “Os aparelhos do futuro permitirão que escolhamos entre sexo, violência e questões políticas.”

E por que parar por aí? Negroponte imaginou um futuro repleto de agentes inteligentes que nos auxiliassem com problemas semelhantes ao da TV. Atuando como um mordomo, o agente só nos ofereceria nossos programas e tópicos preferidos. “Imagine um futuro”, escreveu Negroponte, “no qual tenhamos um agente de interface capaz de ler todos os jornais e revistas, acompanhar todas as transmissões de TV e rádio do planeta, e então construir um resumo personalizado. Esse jornal seria então impresso numa edição que poderíamos chamar de… Diário do Eu.” Quanto mais Negroponte pensava no assunto, mais sentido aquilo fazia. A solução para a sobrecarga de informações da era digital era a utilização de editores inteligentes, personalizados, embutidos. Na verdade, esses agentes não precisariam se limitar à televisão; como ele sugeriu ao editor da nova revista de tecnologia Wired, “os agentes inteligentes são o futuro inequívoco da computação”.

Lanier estava convencido de que, por não serem pessoas de verdade, os agentes forçariam os seres humanos a interagir com eles de formas inadequadas e pixeladas. “Um modelo de nossos interesses criado por um agente será um modelo simplificado, e nos fará enxergar uma versão simplificada do mundo através dos olhos do agente”, argumentou. Havia outro problema: o agente perfeito supostamente eliminaria grande parte da propaganda ou toda ela. Mas, sendo o comércio on-line movido pela propaganda, parecia improvável que as empresas fossem criar agentes que prejudicassem tão seriamente a base de seus negócios. Era mais provável, observou Lanier, que os agentes tivessem dupla lealdade – seriam agentes subornáveis: “Não seria fácil dizer para quem eles trabalhariam.”

Era um apelo claro e desolador. Mas, embora tenha gerado algumas discussões em grupos online, não convenceu os gigantes do software naqueles primórdios da internet. Eles foram convencidos pela lógica de Negroponte: a empresa que descobrisse como encontrar as pepitas de ouro perdidas no palheiro digital herdaria o futuro. As empresas perceberam que o colapso da atenção se aproximava, pois as opções de informação disponíveis para cada pessoa cresciam exponencialmente. Quem quisesse lucrar teria de conseguir prender a atenção das pessoas. E num mundo em que a atenção é um recurso escasso, a melhor maneira de fazê-lo seria oferecer conteúdo que realmente atendesse aos interesses, desejos e necessidades particulares de cada pessoa. Nos corredores e centros de informática do Vale do Silício, havia uma nova palavra de ordem: relevância

Hoje, mais de uma década depois, não vemos agentes inteligentes em parte alguma. É como se a revolução prevista por Negroponte tivesse fracassado. Quando acordamos pela manhã, não encontramos um mordomo eletrônico que nos mostra nossos planos e desejos para aquele dia. Mas isso não quer dizer que eles não existam. Apenas estão escondidos. Sob a superfície de todos os sites que visitamos, existem agentes inteligentes pessoais. Eles se tornam mais inteligentes e potentes a cada dia que passa, acumulando informações sobre quem somos e sobre os nossos interesses. Seguindo a previsão de Lanier, os agentes não trabalham só para nós: também trabalham para gigantes do software como o Google, apresentando-nos propaganda além de conteúdo. Os novos agentes não têm a cara estilizada do Bob, mas determinam proporção cada vez maior da nossa atividade on-line.


O problema de John Irving

Jeff Bezos, presidente da Amazon.com, foi uma das primeiras pessoas a perceber que seria possível utilizar o poder da relevância para ganhar alguns bilhões de dólares. A partir de 1994, sua ideia foi levar a venda de livros on-line “de volta aos tempos do pequeno livreiro que nos conhecia tão bem e dizia coisas como ‘eu sei que você gosta de John Irving, e, veja só, tenho aqui este novo autor, que é bem parecido com ele’”, contou Bezos a um biógrafo. Mas como fazê-lo em grande escala? Para Bezos, a Amazon precisava ser “uma espécie de pequena empresa de inteligência artificial” movida por algoritmos capazes de estabelecer instantaneamente uma correspondência entre consumidores e livros. 

O objetivo da Amazon, decidiu Bezos, seria aprimorar o processo da descoberta: uma loja personalizada que ajudasse os leitores a encontrar livros e lhes apresentasse títulos novos. Mas como? Bezos começou a pensar em máquinas capazes de aprender. Era um desafio e tanto, mas um grupo de engenheiros e cientistas vinha trabalhando na questão desde a década de 1950, em instituições de pesquisa como o MIT e a Universidade da Califórnia, em Berkeley. A área se chamava “cibernética” – uma palavra retirada dos escritos de Platão, que a criou para denotar um sistema autorregulado, como uma democracia. Para os primeiros estudiosos da cibernética, não havia nada mais emocionante do que construir sistemas capazes de se autoajustar, com base na retroalimentação. Nas décadas seguintes, esses estudiosos estabeleceram as bases matemáticas e teóricas que guiariam boa parte do crescimento da Amazon. 

 (...)quando a Amazon foi lançada, em 1995, tudo mudou. Desde o início, a Amazon foi uma livraria que já vinha personalizada. Examinando os livros que as pessoas compravam e usando métodos de filtragem colaborativa desenvolvidos no Parc, a Amazon fazia recomendações instantâneas (Ah, você está comprando Introdução à esgrima para pessoas desajeitadas? Que tal comprar Acordar cego: ações judiciais por lesões oculares?). Além disso, investigando os produtos que cada usuário omprava ao longo do tempo, a Amazon começou a identificar aqueles com preferências similares (pessoas com gostos semelhantes ao seu compraram um dos novos lançamentos desta semana, En Garde!). Quanto mais pessoas compravam livros na Amazon, melhor funcionava a personalização.

Na Amazon, a busca de mais dados sobre o usuário é interminável: quando você lê um livro em seu Kindle, os dados sobre as frases que realçou, as páginas que virou e se começou a leitura do início ou preferiu antes folhear o livro são todos enviados de volta aos servidores da Amazon, sendo então usados para indicar quais livros você talvez leia a seguir. Quando nos conectamos depois de um dia inteiro na praia lendo e-books num Kindle, a Amazon adapta sutilmente seu site segundo aquilo que lemos: se passamos muito tempo lendo a última obra de James Patterson, mas só corremos os olhos por nosso novo guia de dietas, talvez recebamos mais sugestões de livros de aventura e menos de livros de saúde.  

Indicadores de cliques

Page bolou um método inovador e, com sua predileção geek por trocadilhos, chamou-o PageRank. Naquela época, a maioria dos mecanismos de busca da internet selecionava as páginas usando palavras-chave; esses métodos eram muito ineficazes na tentativa de adivinhar que página era a mais relevante para uma determinada palavra. Num artigo escrito em 1997, Brin e Page comentaram ironicamente que três dos quatro principais mecanismos de busca não conseguiam encontrar a si mesmos. “Queremos que a nossa noção de ‘relevante’ inclua apenas os melhores documentos”, escreveram, “pois pode haver dezenas de milhares de documentos ligeiramente relevantes.”

Page percebeu que, dentro da estrutura de links da internet, havia muito mais dados do que os que eram usados pelos mecanismos de busca. Quando uma página incluía um link para outra, isso podia ser considerado um “voto” para a segunda página. Em Stanford, Page vira seus professores contarem quantas vezes seus artigos científicos haviam sido citados, o que funcionava como um índice geral da importância de cada artigo. Percebeu, então, que, da mesma forma que os artigos acadêmicos, as páginas citadas por muitas outras páginas – por exemplo, a página inicial do Yahoo – supostamente seriam mais “importantes”, e as páginas nas quais essas páginas votavam teriam mais relevância. O processo, argumentou Page, “utiliza a estrutura democrática que só existe na internet”. 

Desde o início, Page e Brin perceberam que alguns dos indicadores mais importantes eram gerados pelos usuários do mecanismo de busca. Por exemplo, se alguém pesquisasse “Larry Page” e clicasse no segundo resultado da pesquisa, esse era outro tipo de voto: sugeria que o segundo resultado era mais importante para o usuário do que o primeiro. Isso foi chamado indicador de clique. “Para algumas das pesquisas mais interessantes”, observaram Page e Brin, “será preciso aproveitar a enorme quantidade de dados de uso disponíveis nos modernos sistemas de rede – é muito difícil obter esses dados, principalmente porque são vistos como produtos com valor comercial.” Eles logo poriam as mãos num dos maiores estoques do mundo desses produtos.

“O mecanismo de busca ideal”, Page gostava de dizer, “entenderia exatamente o que queremos dizer e nos ofereceria exatamente o que buscamos.” O Google não estava interessado em oferecer milhares de páginas de links – queria oferecer apenas um, o link que o usuário buscava. Mas a resposta perfeita para uma pessoa não é perfeita para outra. Quando eu pesquiso “panteras”, provavelmente estou interessado em grandes felinos, enquanto um fã de futebol americano que procure a mesma palavra poderá estar se referindo à equipe da Carolina do Sul, os Panthers. Para oferecer relevância perfeita, o site precisa saber no que cada um de nós está interessado. Precisa saber que eu não ligo a mínima para futebol americano; precisa saber quem eu sou. O desafio era obter dados suficientes para desvendar o que era individualmente relevante para cada usuário. É bastante difícil entender o que uma pessoa quer dizer com uma dada palavra – e, para que o processo seja eficaz, é preciso conhecer o comportamento da pessoa ao longo de um período prolongado. 

Facebook por toda a parte

Os algoritmos do Google não tinham igual; a dificuldade estava em convencer os usuários a revelar seus gostos e interesses. Em fevereiro de 2004, trabalhando em seu quarto no alojamento de estudantes em Harvard, Mark Zuckerberg encontrou uma estratégia mais fácil. Em vez de examinar os indicadores de cliques para adivinhar o gosto das pessoas, o plano por trás de sua criação, o Facebook, era simplesmente perguntar a elas. Desde seus tempos de calouro na universidade, Zuckerberg se interessava pelo que chamava de “gráfico social” – o conjunto de relações de cada pessoa. Se inserirmos esses dados no computador, a máquina poderá fazer coisas bastante interessantes e úteis – dizer aos nossos amigos o que estamos fazendo, onde estamos e no que estamos interessados. O sistema também tem implicações para o mundo das notícias: em sua primeira versão, quando ainda era um site exclusivo para a universidade de Harvard, o Facebook incluía automaticamente, nas páginas pessoais de cada usuário, os links de artigos do Crimson, o jornal da universidade, nos quais a pessoa era citada.

No Friendster e no MySpace, para descobrir o que nossos amigos estavam fazendo, tínhamos que visitar suas páginas. O algoritmo do Feed de Notícias recolheu todas essas atualizações contidas na gigantesca base de dados do Facebook e as colocou num só lugar, bem na nossa cara, no momento em que nos conectamos. De um dia para o outro, o Facebook deixou de ser uma rede de páginas conectadas e se tornou um jornal personalizado com notícias sobre (e criado por) nossos amigos. É difícil imaginarmos uma fonte mais pura de relevância. 

E foi um estouro. Em 2006, os usuários do Facebook postavam literalmente bilhões de atualizações – frases filosóficas, comentários sobre quem estavam namorando, o que tinham comido no café da manhã. Zuckerberg e sua equipe encorajavam os usuários: quanto mais dados fornecessem à empresa, melhor seria sua experiência on-line e mais eles voltariam ao site. Desde cedo, o Facebook incluiu a possibilidade de enviar fotos, e com isso passou a conter a maior coleção de fotografias do mundo. O site também estimulou os usuários a postar links de outros sites, e milhões de links foram copiados e colados. Em 2007, Zuckerberg alardeou: “Na verdade, estamos produzindo mais notícias num único dia para nossos 19 milhões de usuários do que qualquer outro meio de comunicação já produziu durante toda sua existência.” 

No início, o Feed de Notícias mostrava quase tudo que nossos amigos faziam no site. No entanto, quando o volume de postagens e amigos aumentou, ler ou gerir o Feed tornou-se impossível. Mesmo que tivéssemos apenas cem amigos, era um volume grande demais. A solução do Facebook foi o EdgeRank, o algoritmo por trás da página inicial do site, que traz as Principais Notícias. 

O EdgeRank classifica todas as interações ocorridas no site. A matemática é complicada, mas a ideia básica é bastante simples, baseando-se em três fatores. O primeiro é a afinidade: quanto mais próxima a nossa amizade com alguém – o que é determinado pelo tempo que passamos interagindo com a pessoa e investigando seu perfil –, maior será a probabilidade de que o Facebook nos mostre suas atualizações. O segundo é o peso relativo de cada tipo de conteúdo: atualizações sobre relacionamentos, por exemplo, têm peso grande; todos gostam de saber quem está namorando quem (muitos observadores suspeitam que esse peso também seja personalizado: pessoas diferentes dão mais ou menos importância a cada tipo de conteúdo). O terceiro é o tempo: itens mais recentes têm mais peso do que postagens mais antigas. 

O EdgeRank demonstra o paradoxo existente no âmago da corrida pela relevância. Para oferecer mais relevância, os algoritmos de personalização precisam de mais dados. No entanto, quanto mais dados houver, mais sofisticados deverão ser os filtros para organizá-los. É um ciclo sem fim.

A questão é que a base dos dois negócios é essencialmente a mesma: publicidade direcionada, altamente relevante. Os anúncios contextuais que o Google coloca ao lado dos resultados de pesquisas e em sites são sua única fonte significativa de lucro. E, embora as finanças do Facebook não sejam reveladas ao público, alguns insiders já deixaram claro que a publicidade está no âmago dos rendimentos da empresa.

O Google e o Facebook tiveram pontos de partida e estratégias diferentes – um deles apoiou-se nas relações entre informações, o outro nas relações entre pessoas –, porém, em última análise, os dois competem pelos mesmos dólares advindos da publicidade. Do ponto de vista do anunciante on-line, a questão é simples: qual empresa irá gerar o maior retorno por cada dólar investido? É aí que a relevância entra na equação. As massas de dados acumuladas pelo Facebook e pelo Google têm dois propósitos: para os usuários, os dados são a chave para a oferta de notícias e resultados pessoalmente relevantes; para os anunciantes, os dados são a chave para encontrar possíveis compradores. A empresa que tiver a maior quantidade de informações e souber usá-las melhor ganhará os dólares da publicidade. O que nos leva ao aprisionamento tecnológico.

O aprisionamento é o ponto no qual os usuários estão tão envolvidos com a tecnologia que, mesmo que um concorrente ofereça um serviço melhor, não vale a pena mudar. Se você for membro do Facebook, pense no que representaria mudar para outro site de relacionamento social, mesmo que ele tivesse características muito superiores. Provavelmente daria bastante trabalho – seria extremamente maçante recriar todo o seu perfil, enviar todas as fotos outra vez e digitar arduamente os nomes de seus amigos. Você já está bastante preso.

O Mercado de Dados


Os defensores dessa prática a chamam de “redirecionamento comportamental”. Os comerciantes observaram que 98% dos visitantes de sites de compras on-line deixam o site sem comprar nada. O redirecionamento faz com que as empresas já não tenham que aceitar um “não” como resposta. 

Digamos que você tenha examinado um par de tênis de corrida num site, mas tenha saído sem o comprar. Se a sapataria on-line que você visitou usar o redirecionamento, seus anúncios – que talvez apresentem uma imagem dos mesmos tênis em que você pareceu interessado – irão segui-lo por toda a internet, surgindo ao lado do placar do jogo da noite passada ou das postagens do seu blog preferido. E se você finalmente se convencer e comprar os tênis? Bem, a sapataria poderá vender essa informação à BlueKai, que a leiloará, por exemplo, a um site de material esportivo. Em pouco tempo você verá anúncios de meias antitranspirantes por toda a internet. 

Esse tipo de publicidade persistente e personalizada não está confinado aos nossos computadores. Sites como o Loopt e o Foursquare, que anunciam o local onde se encontra um usuário a partir de seu celular, dão aos anunciantes a possibilidade de oferecer publicidade direcionada a seus clientes mesmo quando estão fora de casa. O Loopt está trabalhando num sistema de anúncios no qual as lojas poderão oferecer descontos e promoções especiais nos telefones celulares dos clientes – bem no momento em que a pessoa esteja passando em frente à loja. E se você estiver sentado num voo da Southwest Airlines, os anúncios na tela à sua frente poderão ser diferentes dos de seus vizinhos. Afinal, a Southwest sabe o seu nome e quem você é. Cruzando suas informações pessoais com bases de dados como o da Acxiom, a empresa poderá saber muito mais sobre você. Por que não lhe apresentar anúncios personalizados – ou, então, um programa direcionado a que você tenha mais probabilidade de assistir?

Por ora, o redirecionamento está sendo usado apenas por anunciantes, mas não há nada que impeça os editores e provedores de conteúdo de fazer o mesmo. Afinal, se o jornal Los Angeles Times souber que você é fã do blogueiro Perez Hilton, poderá apresentar uma entrevista com ele na primeira página da sua edição pessoal, o que aumentará a chance de que você permaneça no site e clique por aí.

Tudo isso significa que nosso comportamento se transformou numa mercadoria, um pedaço pequenino de um mercado que serve como plataforma para a personalização de toda a internet. Estamos acostumados a pensar na rede como uma série de relações distintas: nós gerimos a nossa relação com o Yahoo separadamente da nossa relação com nosso blog preferido. Entretanto, nos bastidores, a rede está se tornando cada vez mais integrada. As empresas estão percebendo que compartilhar dados é lucrativo. Graças à Acxiom e ao mercado de dados, os sites conseguem apresentar diante de nós os produtos mais relevantes enquanto sussurram uns com os outros às nossas costas.

A busca da relevância gerou os gigantes da internet de hoje e está motivando as empresas a acumular cada vez mais dados sobre nós e a usá-los para adaptar secretamente nossas experiências on-line. Está transformando o tecido da rede. Porém, como veremos, as consequências da personalização sobre o modo como consumimos notícias, como tomamos decisões políticas e até como pensamos serão ainda mais drásticas.


SAIBA MAIS



Disciplina: Cibercultura
Universidade Federal do Ceará

Você pode gostar também

0 comentários

Curta a página no Facebook

Anúncio