Inteligência Artificial Detectando as Emoções dos Consumidores. Isso pode?

21/03/2024 às 09:30
Leia nesta página:

A possibilidade do uso de sistemas de I.A. para aferir sentimentos das pessoas por si só deveria ser assustador, imagine um sistema que por um padrão identifique o potencial de uma pessoa cometer ou não um crime? Algo que o cinema já tratou no filme "Minority Report: A Nova Lei", lançado em 2002, antevendo muito do que nesse momento tentamos regular.

O filme, baseado no conto homônimo, lançado em 1956 por Philip K. Dick. Responsável por outras grandes obras de ficção científica, como "Blade Runner" e "Vingador do Futuro", o escritor costumava abordar em seus trabalhos um futuro distópico, e a história escolhida por Spielberg era uma das que trazia essa característica marcante. No conto original, assim como no filme, somos apresentados a uma agência que desenvolveu um sistema capaz de prever delitos, qualquer semelhança com sistemas que tentam traçar perfil de suspeitos não é mera coincidência.

Logo muitas questões surgem desse ponto: Pode a inteligência artificial classificar os empregados pelo humor presente em seu olhar? Pode a escola definir qual aluno mais atento pela análise biométrica feita pela inteligência artificial? Pode a inteligência artificial detectar o estado de espírito de um consumidor pelas câmeras de segurança da loja?

Preocupado com a “reedição fora da telas de cinema de um Minority Report” o Parlamento Europeu introduziu alterações ao futuro regulamento da UE para regular a utilização de sistemas que permitam detetar as sensações dos trabalhadores no escritório.

O regulamento não deverá entrar em vigor antes de 2026, o que só aumenta a preocupação, pois três anos de desenvolvimento da IA generativa, o céu será o limite, ou seria a Lei?

Numa tentativa de antecipar algumas das possibilidades mais futuristas abertas por esta tecnologia, o Parlamento Europeu introduziu, em junho último, uma série de alterações à norma elaborada primeiro pela Comissão e depois pelo Conselho. Assim, os deputados elaboraram uma alteração relativa ao reconhecimento de emoções proibidas no local de trabalho.

Analisando o texto, a alteração acrescentada ao capítulo 26 do regulamento esclarece que "podem surgir problemas de confiabilidade e, por conseguinte, grandes riscos de abuso, especialmente quando o sistema é implementado em situações reais relacionadas com a aplicação da lei, a gestão das fronteiras, o local de trabalho e as instituições de ensino. Por conseguinte, deve ser proibida a colocação no mercado, a entrada em serviço e a utilização de sistemas de IA concebidos para serem utilizados em tais contextos, a fim de detectar o estado emocional das pessoas singulares.

A este respeito, o Parlamento Europeu salienta que estes sistemas, quando não são explicitamente proibidos, devem ser classificados como de alto risco (em contrapartida, na proposta inicial da Comissão estavam sujeitos a meras obrigações de transparência).

É importante notar que, nas suas alterações de Junho, o Parlamento introduziu também novas disposições sobre o consentimento para a utilização de dados biométricos ou emocionais quando a sua utilização se justifica." Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de classificação biométrica que não seja proibido nos termos do artigo 5.º devem informar atempadamente, de forma clara e inteligível o funcionamento do sistema às pessoas singulares a ele expostas e obter o seu consentimento antes do tratamento dos seus dados biométricos e outros dados pessoais. "

Tente imaginar o uso da biometria na definição de padrões para diversas doenças, o que pode nesse caso ser bastante últil no desenvolvimento do diagnóstico, desde que não seja da I.A. a palavra final, ou que a mesma não seja utilizada como justificativa para ampliar ou restringir as coberturas de plano de saúde.

Lembro que na Lei 13.709 de 2018, a nossa LGPD, os princípios norteadores já estão previstos no seu artigo 2º:

Art ;2º A disciplina da proteção de dados pessoais tem como fundamentos: :

I - o respeito à privacidade;

II - a autodeterminação informativa;

III - a liberdade de expressão, de informação, de comunicação e de opinião;

IV - a inviolabilidade da intimidade, da honra e da imagem;

V - o desenvolvimento econômico e tecnológico e a inovação;

VI - a livre iniciativa, a livre concorrência e a defesa do consumidor; e

VII - os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais.

Nesse momento, 0 algoritmo, de alguns sistemas de inteligência artificial, medem os micromovimentos dos músculos faciais e tentam identificar emoções como alegria, tristeza, raiva, surpresa ou medo. Isso pode? Qual lo limite para o uso, onde é claro que seu emprego pode levar a atos de preconceito e injustiça?

Pense no seu uso em escolas? Imagine que o mesmo poderia ser utilizado para identificar interesse dos alunos e ou desaprovação dos mesmos as questões e formas como elas são colocadas pelos professores? Imagina a escola remunerando esses professores (apenas como variável) pelo grau de empatia desenvolvido com os alunos?

A tecnologia utilizada nada mais é do que uma evolução dos sistemas de reconhecimento facial, mas muito mais invasiva, já que, supostamente, não só entende como a pessoa se sente em um dado momento, mas pode decodificar suas intenções e prever sua personalidade, com base em expressões fugazes. Esse é só um exemplo do uso, e da necessidade de uma regulação mínima, pois considerando a importância capital da Inteligência Artificial estamos engatinhando no que pode ser feito e nos desafios regulatórios propostos por esses avanços tecnológicos.

Assine a nossa newsletter! Seja o primeiro a receber nossas novidades exclusivas e recentes diretamente em sua caixa de entrada.
Publique seus artigos

Os desafios para definir o marco regulatório são grandes, principalmente pela complexidade de fatores e alcance de aplicação, que tornam a questão ainda mais impactante. Contudo, é fundamental que os agentes de desenvolvimento demonstrem práticas de governança sobre seus ambientes, tecnologias e pessoas envolvidas no ciclo de vida de uma IA estabeleçam um canal obrigatório de dúvidas e respostas aos usuários, além de definir a utilização de serviços críticos e incluir a revisão humana para prevenção de erros fatais ou que coloquem em risco os direitos fundamentais dos usuários.

 

Sobre o autor
Charles M. Machado

Charles M. Machado é advogado formado pela UFSC, Universidade Federal de Santa Catarina, consultor jurídico no Brasil e no Exterior, nas áreas de Direito Tributário e Mercado de Capitais. Foi professor nos Cursos de Pós Graduação e Extensão no IBET, nas disciplinas de Tributação Internacional e Imposto de Renda. Pós Graduado em Direito Tributário Internacional pela Universidade de Salamanca na Espanha. Membro da Academia Brasileira de Direito Tributário e Membro da Associação Paulista de Estudos Tributários, onde também é palestrante. Autor de Diversas Obras de Direito.

Informações sobre o texto

Este texto foi publicado diretamente pelos autores. Sua divulgação não depende de prévia aprovação pelo conselho editorial do site. Quando selecionados, os textos são divulgados na Revista Jus Navigandi

Publique seus artigos Compartilhe conhecimento e ganhe reconhecimento. É fácil e rápido!
Publique seus artigos