Pesquisar este blog

sexta-feira, 3 de maio de 2019

INTELIGÊNCIA ARTIFICIAL: Policial, Juiz e Carrasco.

Eu fui bloqueado no Facebook por 72 horas.


Eu estava num chat PRIVADO do Facebook Messenger com o Fulano, Cicrano e Beltrano. Fui fazer uma piada sobre beber leite na teta da vaca. Digitei este termo no "Google Imagens" e o "Safe Search"[1] estava ATIVADO. Escolhi uma das fotos que tinha uma vaca e um garoto bebendo o leite direto da teta. Uma cena inocente, sem maldade. (Eu até poderia dizer "maldade está nos olhos de quem vê", mas neste caso, quem viu a imagem foi um Robô de Inteligência Artificial[2]. E assim como a gente, ele tem seus "preconceitos". A Inteligência Artificial é baseada no nosso sistema biológico, portanto, comete os mesmos erros que a gente.) Enfim, enviei a foto no chat do grupo. O Fulano viu, o Cicrano viu. Não deu tempo do Beltrano ver. Em 10 segundos, aproximadamente, a foto foi automaticamente removida. E eu recebi um pop-up dizendo que eu tinha sido bloqueado por 72 horas por violar os termos de conduta do site.

Isso é muito sério. As nossas conversas estão sendo monitoradas por um robô do Facebook. E isso pode acontecer com qualquer um de vocês: Você posta uma foto achando que está se divertindo e BOOM... receberá uma punição. E você não terá direito de reclamar, nem terá como recorrer. Os trabalhadores do Facebook simplesmente não te ouvirão e nem querem te ouvir. Nem há canal para registrar reclamação ou pedir revisão da sua condenação. Te tratam como gado mesmo, você é apenas mais um número de cadastro pra clicar em anúncios pagos. O Mark Zukeber é um desses garotos da nova geração do "politicamente correto" que acha que vai salvar o mundo da maldade, nem que pra isso tenha que estabelecer uma ditadura de 1984. Pra mim, ficou bem evidente esta intenção dele, ao falar para o Senado Americano. Em um trecho ele diz que se acha responsável e que tem que parar isso. Típica síndrome de super-herói. No ímpeto de praticar justiça absoluta, mata gente inocente.

Essa obsessão dele por fiscalizar conteúdo já é um perigo conhecido: Na tentativa de fazer justiça com 100% dos criminosos, você comete injustiça com 1% dos inocentes. Parece razoável? 100 para 1? De jeito nenhum. A Pena de Morte é polêmica justamente pois se você matar um único inocente na cadeira elétrica, terá feito mais mal do que se tivesse deixado 1% dos culpados impunes.

No filme Minority Report (A Nova Lei), com o Tom Cruise, há um tema parecido: Se os precognitivos não fazem previsões inequívocas e se existe uma chance da pessoa desistir de cometer o crime no último segundo, então a pessoa não será culpada. No filme, provar a possibilidade de incerteza significaria ter centenas de potenciais inocentes enviados às câmaras de transe.

Voltando ao assunto original deste post, infelizmente vocês não vão poder ver a foto, pois se eu postar ela aqui, vou ser punido novamente.

Há alguns anos eu tentei postar a foto do 0zama Bean L@d3n (não vou escrever o nome dele pra não ser banido novamente) e o post também foi apagado e eu também fui bloqueado, por suspeição de contaminação de vírus, disse a mensagem de bloqueio. Mas era um post público, onde eu ia criticar o terrorismo... mas não podia. E agora aconteceu mais restrição num canal privado, numa conversa apenas entre amigos.

A ficção alerta a gente sobre os perigos do futuro, e pensem que as empresas hoje já estão usando sistemas de monitoramento de formas bastante irresponsáveis. Em geral, o que eu percebo é uma visão mítica dos próprios programadores que desenvolvem estes sistemas. Pessoas que não entendem bem o que estão fazendo e acreditam cegamente nessa tecnologia, tamanho é a admiração pelo que fazem. Essa ingenuidade dos "profissionais" dessa área vai custar muito caro. Sistemas de Aprendizado de Máquina são como nossas Urnas Eletrônicas, criam um mito de infalibilidade, vendem uma panacéia pra mais tarde lamentar: "Meu Deus, o que foi que fizemos?!?!"

Enfim, fica o recado: Eu fui preso, julgado e condenado por um Robô de Inteligência Artificial. Cumpri pena. Mas sou inocente. E não vou receber nem um pedido de desculpas.

[1] Robô de Inteligência Artificial do Google que diz se uma imagem é conteúdo adulto ou livre.
[2] Robô de Inteligência Artificial do Facebook que determina se uma imagem viola os termos de conduta do Facebook.

Data original da publicação 20/07/2018:

Nenhum comentário: