Pesquisar este blog

quinta-feira, 2 de maio de 2019

Você tornou-se uma cobaia sem saber?

Se você não leu os termos de uso do Facebook, possivelmente tornou-se uma cobaia sem saber.



Facebook mostra avanços da inteligência artificial que remove conteúdo nocivo
https://g1.globo.com/economia/tecnologia/noticia/2019/05/01/facebook-mostra-avancos-da-inteligencia-artificial-que-remove-conteudo-nocivo.ghtml

Schroepfer reconheceu que o atual estado do algoritmo está longe de ser a solução necessária para esses problemas, mas que o trabalho de sua equipe é continuar nesse caminho. “É um trabalho complicado e é por isso que as pessoas estão céticas quando dizemos que estamos tentando resolver problemas de segurança no Facebook”

Em experimento secreto, Facebook manipula emoções de usuários

Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o "contágio emocional" desencadeou revolta na rede social.

Durante uma semana em 2012 o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.

O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência (http://www.pnas.org/content/111/24/8788.full.pdf).

Opção 'curtir' do Facebook revela mais do que se deseja, diz estudo

Uma pesquisa publicada mostra que analisar os padrões destas preferências pode dar estimativas surpreendentemente precisas sobre informações pessoais que o usuário não expõe, tais como raça, idade, Q.I., sexualidade, etc.

Cientistas da Universidade de Cambridge, no Reino Unido, e do Microsoft Research, divisão de pesquisas da gigante de softwate americana, desenvolveram um algoritmo que usa as opções 'curtir' - publicamente disponíveis a menos que o usuário faça configurações de privacidade mais rígidas - para criar perfis de personalidade, revelando potencialmente detalhes íntimos sobre sua vida.

Esses modelos matemáticos demonstraram uma precisão de 88% ao diferenciar homens de mulheres e de 95% em distinguir afro-americanos de brancos.

Tais algoritmos também conseguiram extrapolar informações como orientação sexual, se o usuário fez uso de drogas ou se seus pais se separaram.

Os dados podem ser usados em estratégias de propaganda e marketing, mas também poderiam fazer os usuários ficarem retraídos por causa da quantidade de dados pessoais revelados, afirmaram os cientistas.

"É muito fácil clicar no botão 'curtir', é sedutor", afirmou David Stillwell, estudioso de psicometria e co-autor da pesquisa.

"Mas você não percebe que anos depois todos aqueles 'curtir' são armazenados contra você", acrescentou.

Cristãos e muçulmanos foram corretamente classificados em 82% dos casos e uma boa precisão nas previsões foi alcançada nos status de relacionamento e uso de substâncias, entre 65% e 73%.

O estudo, publicado no periódico Proceedings of the National Academy of Sciences, é divulgado em meio a um intenso debate sobre privacidade online e se os usuários sabem quanta informação é reunida sobre eles. Outra pesquisa recente demonstrou que os usuários do Facebook começaram a compartilhar mais dados pessoais depois que a rede social revisou suas políticas e interfaces.

"Posso imaginar situações em que os mesmos dados e tecnologia são usados para antecipar visões políticas ou orientação sexual, trazendo riscos para a liberdade e até mesmo para a vida das pessoas", afirmou.

Veja, estão falando de "antecipar visões políticas, ou orientação sexual"... ou seja, uma pessoa que ainda não tem atitudes homosexuais e nem sabe que fará esta opção já pode ter sua opção identificada pela rede social.

A técnica que detecta depressão em posts do Facebook

Além de informações de localização do GPS, o aplicativo gravava a frequência em que o smartphone estava sendo usado, computando o tempo em que a tela estava ligada e desligada.

Como era de se esperar, a pesquisa também concluiu que pessoas com depressão passam mais tempo em casa. Outro ponto descoberto é que elas tem uma rotina irregular, podendo sair para o trabalho em horários diferentes, por exemplo.

O objetivo é, no futuro, ajudar os médicos no diagnóstico de pacientes com depressão de uma forma mais rápida. O teste conseguiu ter uma precisão de 87%.

Facebook expandirá inteligência artificial para ajudar a prevenir suicídio

Não se trata de uma realidade distante. Em novembro de 2017, o Facebook passou a fazer uso de uma inteligência artificial que identifica, a partir de padrões nos posts, pessoas que podem estar apresentando ideação suicida, ou seja, pensamentos suicidas. 

Após a identificação pela inteligência artificial, funcionários do Facebook podem analisar o caso, e reportar a autoridades sobre o risco. Segundo a multinacional americana, até setembro de 2018 mais de 1.000 autoridades haviam sido contatadas, após o risco ser detectado a partir de posts ou avisos de usuários.

A ferramenta foi lançada inclusive no Brasil. Procurada pela reportagem, a empresa afirmou, no entanto que não compartilha nenhum dado a respeito dos resultados, e não respondeu se autoridades chegaram a ser contatadas no país.

A estratégia levanta, no entanto, debates éticos sobre a privacidade dos usuários - a ferramenta do Facebook foi barrada na União Europeia por violar suas leis de proteção de dados.

Nenhum comentário: