Associação entre Ciências do Comportamento e Ciência de Dados amplia significado da falha do Facebook

Desde o dia 17 de março, quando veio à tona o escândalo do vazamento de dados do Facebook para a Cambridge Analytica – que usou essas informações na campanha de Donald Trump –, não houve um dia sem notícias sobre o caso, e várias foram as edições em que Facebook, privacidade, big data e temas relacionados ocuparam várias páginas – ou preciosos minutos – nos principais meios de comunicação brasileiros. Mas um aspecto importante dessa história ficou fora dos holofotes por aqui: o envolvimento de pesquisadores da Universidade de Cambridge no esquema e, mais do que isso, o papel do modelo comportamental que desenvolveram no poder que os dados vazados acabaram adquirindo.

A discussão sobre o escândalo se dá, em grande medida, em termos de apuração de responsabilidades e, nesse contexto, um texto publicado na Folha de S. Paulo em 22 de março – traduzido do The New York Times – chamou a minha atenção para uma reflexão fundamental associada a esta polêmica: a responsabilidade social do cientista e as suas obrigações em relação aos usos possíveis do conhecimento que produz.

Devo confessar que conversas sobre como meu celular está ouvindo o que eu falo e o Google sabe onde estou nunca me causaram grande preocupação, já que, de um lado, não via grande interesse nos segredos que tenho para contar e, de outro, acreditava ainda viver boa parte da minha vida desconectada (o que, cada vez mais, é uma ilusão). No entanto, se aquilo que digo e as coisas que “curto” podem ajudar na manipulação das próximas eleições presidenciais, por exemplo, então passo a me sentir na obrigação de prestar mais atenção a esse debate. E foi isso que descobri lendo o texto da Folha, e outros a partir dele: que um estudo, inicialmente realizado na Universidade de Cambridge por David Stillwell e Michael Kosinski – este último autor do polêmico algoritmo capaz de, pretensamente, identificar a orientação sexual de uma pessoa a partir de seu retrato –, resultou em uma ferramenta poderosa que associa as “pegadas digitais” de uma pessoa à sua personalidade.

A partir das suas reações no Facebook a coisas aparentemente tão díspares como a música de Tom Waits e de Björk; os hobbies de escrever, correr ou cozinhar; um quadro de Salvador Dali ou o último lançamento da Adidas, essa tecnologia comportamental identifica um perfil e, assim, uma tendência, permitindo, dentre outras manipulações, o direcionamento de conteúdos que ajudem a concretizar essa tendência na hora do voto, ou de uma compra. E foi justamente essa ferramenta, ou, no mínimo, o conceito por trás dela, que foi apropriada e utilizada pela Cambridge Analytica, ampliando em muito o significado do vazamento de dados, por si só já bastante grave.

Mas a responsabilidade não é do Facebook?

Há duas formas distintas, níveis diferentes de profundidade para questionar o envolvimento da comunidade acadêmica na confusão. A primeira diz respeito à possibilidade de uso indevido de recursos destinados à pesquisa acadêmica e, também, à responsabilidade institucional da Universidade de Cambridge, questionada, por exemplo, pelo The Guardian. Há, no entanto, de se refletir cada vez mais também sobre os limites da chamada Ciência de Dados e disciplinas afins, e sua associação a pesquisas comportamentais orientadas à propaganda. Nos últimos anos, essa reflexão foi feita para a Genética e a Biotecnologia, por exemplo, e precisa agora ser estendida a esses novos domínios, como alerta um ótimo ensaio publicado no The New York Review of Books.

Não é que um estudo, qualquer estudo, deva ser abandonado a priori pelos maus usos que dele podem ser feitos. Este, no entanto, é mais um exemplo que nos ajuda a não esquecer como a Ciência não está isolada dos demais empreendimentos humanos. Além disso, põe em relevo a importância de cada pesquisador e da comunidade científica como um todo refletirem sempre sobre possíveis impactos sociais da Ciência e da Tecnologia, desde os primeiros passos da pesquisa mais básica. Kosinski, pioneiro no uso de dados colhidos em redes sociais em estudos científicos, costuma dizer que o faz, afirmando que o seu objetivo com os algoritmos que desenvolve é alertar sobre o que é possível fazer, ou já está sendo feito, para que possamos pensar em estratégias de prevenção. Aparentemente, no entanto, a estratégia pode estar tendo o efeito oposto, fazendo com que fique cada vez mais difícil – citando Andrew Keen em seu último livro – consertar o futuro.

Boas leituras, bom feriado e até a semana que vem!

Mídia e Ciência também disponível em vídeo