Tech

Ajustes nas Políticas de Dados das Redes Sociais para Treino de IA

há 3 dias

Redes sociais alteram políticas de privacidade para otimizar o uso de dados na formação de modelos de inteligência artificial, conforme revela a plataforma Maldita.

Ajustes nas Políticas de Dados das Redes Sociais para Treino de IA

A plataforma de 'fact-checking' espanhola Maldita revelou que diversas empresas de redes sociais estão a modificar as suas políticas de privacidade com o intuito de melhorar a eficiência dos modelos de inteligência artificial (IA). Estes sistemas, que dependem de algoritmos complexos, necessitam de enormes volumes de dados para identificar padrões e formular conclusões precisas.

Para treinar ferramentas como geradores de imagens, são exigidas milhões de imagens associadas a palavras específicas, sendo fundamental que os dados sejam variados e de qualidade. A produção constante de dados pelos utilizadores, desde fotografias e 'likes' a comentários, torna as redes sociais uma fonte rica para estas empresas.

Por exemplo, desde 27 de maio, a Meta (Facebook, Instagram e WhatsApp) começou a utilizar dados de utilizadores adultos na União Europeia para treinar o seu modelo Meta AI. Contudo, um projeto de treino baseado na atividade dos utilizadores no Instagram e Facebook foi suspenso em junho de 2024 devido a preocupações levantadas pela proteção de dados na Europa.

Outras plataformas, como o X, também têm políticas que permitem o uso de dados pessoais para treinar a IA, disponibilizando aos utilizadores a opção de limitar este processamento através das configurações da conta. O TikTok, por sua vez, recolhe informações para melhorar a experiência do utilizador, analisando interações e comportamentos na aplicação.

O Slack, focado na comunicação empresarial, utiliza os dados dos clientes para aprimorar a plataforma, implementando funcionalidades como emojis e recomendações. De uma forma semelhante, a Adobe ajustou as suas definições de política em junho de 2024, permitindo o acesso e uso dos conteúdos dos utilizadores, gerando preocupações sobre a finalidade desta utilização.

A Comissão Nacional de Proteção de Dados (CNPD) tem enfatizado a necessidade de os utilizadores portugueses estarem cientes dos seus direitos e das potenciais consequências do uso dos seus dados pessoais no treino de IA.

Tags:
#PrivacidadeDigital #InteligenciaArtificial #DadosPessoais