A alteração ocorreu após a Autoridade Nacional de Proteção de Dados (ANDP), vinculada ao Ministério da Justiça e Segurança Pública (MJSP), decidir suspender a nova política de privacidade da big tech, que coletava dados dos usuários para treinamentos de modelos de inteligência artificial.
“Decidimos suspender ferramentas de genAI que estavam ativas no Brasil enquanto engajamos com a ANPD para endereçar suas perguntas sobre IA generativa”, disse a Meta, em nota.
A IA generativa é uma área da inteligência artificial usada para desenvolver ferramentas qualificadas para criar textos, imagens, vídeos e músicas, por exemplo.
A Meta usou por um breve período a IA generativa para criar figurinhas do WhatsApp. O usuário, a partir de uma breve descrição, criava ícones para usar em conversas. Este recurso não está disponível no momento.
A empresa planejava para este mês o lançamento da IA da Meta, um pacote de recursos, já disponível em alguns países, que inclui robôs de inteligência artificial generativa no WhatsApp, Facebook e Instagram. Essa ferramenta pode conversar com usuários, gerar imagens, criar textos e responder perguntas.
Uso de dados
O MJSP enviou um ofício com questionamentos para a Meta sobre o uso de dados pessoais de brasileiros para treinar a IA da empresa. Segundo o documento, há indícios até de uso de dados em conteúdo com caráter de desinformação, o que despreza “a soberania legislativa do Brasil”.
O ofício é da Secretaria Nacional do Consumidor (Senacon), que faz parte do MJSP. No inicio do mês, no dia 2/7, a pasta determinou que a Meta suspendesse, imediatamente, a nova política de privacidade da companhia, que usa dados pessoais dos usuários no treinamento de IA generativa. Os dados seriam usados para compor banco de dados usados pelas IAs para gerar respostas automatizadas.
No novo documento enviado para a Meta, a Secretaria afirma que a relação jurídica entre a empresa e os usuários é uma relação de consumo, então, deve ser aplicado o Código de Defesa do Consumidor (CDC).
Por meio de nota, a Meta afirmou estar desapontada com a decisão da ANPD. “Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, disse a empresa.
A Meta ainda ressaltou ao Metrópoles que a abordagem cumpre com as leis de privacidade e regulações no Brasil. “Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, ressaltou a Meta.
Metrópoles
Nenhum comentário:
Postar um comentário
Comentários são publicados somente depois de avaliados por moderador. Aguarde publicação. Agradecemos a sua opinião.