Tecnologia AssistivaTecnologia e Mobilidade

Inteligência artificial PcD: o desafio da representatividade e da inclusão digital

O conteúdo a seguir foi inspirado no episódio do programa The Artificial Human, que levanta uma reflexão poderosa: como a inteligência artificial retrata (ou deixa de retratar) pessoas com deficiência?

Nos últimos meses, um debate importante tem ganhado força entre a comunidade PcD e especialistas em tecnologia: até que ponto os sistemas de inteligência artificial PcD realmente entendem e representam a diversidade humana?

A história da ex-nadadora paralímpica australiana Jess Smith é um marco nessa discussão. Ao tentar gerar uma imagem de si mesma em um aplicativo de IA, Jess percebeu algo desconcertante — o sistema simplesmente não conseguia imaginá-la como ela realmente é.

Ela subiu uma foto de corpo inteiro e deixou claro: faltava parte do seu braço esquerdo. Mesmo assim, a IA insistia em recriar uma imagem com dois braços completos ou com uma prótese metálica.
O algoritmo não aceitava sua forma corporal real.

Quando Jess questionou o motivo, a resposta foi direta: “não há dados suficientes para gerar esse tipo de imagem”. Foi o ponto de virada. “A IA é um espelho da sociedade — reflete nossas desigualdades e preconceitos”, disse ela em entrevista à BBC.

A inteligência artificial e o reflexo do capacitismo digital

A história de Jess Smith mostra que a inteligência artificial PcD ainda está aprendendo a enxergar corpos diversos. E esse problema não é apenas técnico — é social.

Por muito tempo, os dados usados para treinar sistemas de IA ignoraram pessoas com deficiência, seus corpos e suas vivências. O resultado é uma tecnologia que reforça padrões e exclui quem não se encaixa neles.

Como Smith ressaltou, “a representação na tecnologia significa não ser visto como exceção, mas como parte do mundo que está sendo construído”. Quando a IA finalmente conseguiu gerar sua imagem fiel, foi mais do que um avanço técnico — foi um ato de inclusão digital e humana.

Veja também: 10 Aplicativos Gratuitos que Facilitam a Vida de Pessoas com Deficiência

Quando a IA apaga a diferença

Outro caso citado no episódio de The Artificial Human é o de Naomi Bowman, que tem visão em apenas um olho. Ao pedir para a IA editar o fundo de uma foto, o sistema alterou completamente o seu rosto — igualando os olhos.

Mesmo explicando sua condição, a IA “corrigiu” sua imagem, apagando a diferença que a torna quem ela é. “É triste, porque mostra o preconceito que ainda existe dentro da tecnologia”, desabafa Naomi.

Ela defende que os sistemas de IA sejam treinados com mais diversidade, incluindo corpos, rostos e realidades PcD. Só assim o resultado será realmente justo e representativo.

inteligência artificial pcd

O viés da tecnologia é humano

Os erros da inteligência artificial PcD não surgem do nada. Eles são o reflexo de quem treina e alimenta os algoritmos. Como afirma Abran Maldonado, CEO da Create Labs, “a diversidade na IA começa com quem está na sala quando os dados são criados”.

Se as pessoas responsáveis por construir esses sistemas não vivenciam realidades diversas, o resultado é uma tecnologia que replica os mesmos pontos cegos da sociedade.

Estudos já comprovaram isso. Em 2019, o governo dos EUA mostrou que sistemas de reconhecimento facial tinham muito mais dificuldade em identificar rostos asiáticos e negros do que brancos. Agora, estamos vendo o mesmo acontecer com pessoas com deficiência — invisíveis para os dados.

Confira também: O futuro da tecnologia assistiva para PcD: como IA e robótica vão transformar a inclusão até 2030

Inteligência artificial PcD: inclusão ou exclusão?

O caso de Jess Smith levanta uma questão profunda: quem é incluído quando a IA “aprende” o mundo?

Jess não se considera deficiente — o que a limita não é seu corpo, mas o design social e tecnológico que não foi feito para ela. “Se o banheiro público exige que eu use as duas mãos para acionar a torneira, o problema não está em mim. Está em quem projetou o espaço sem pensar em pessoas como eu”, explica.

E essa lógica se repete na tecnologia. Se os sistemas de IA não são treinados para reconhecer corpos diversos, eles reforçam o capacitismo e perpetuam o apagamento digital.

Conversas que precisamos ter

Jess compartilhou sua experiência nas redes e recebeu centenas de mensagens. Algumas pessoas tentaram reproduzir a imagem e tiveram o mesmo problema — e depois simplesmente deixaram de responder. “A conversa é desconfortável, e as pessoas se afastam”, contou ela.

Mas é justamente esse desconforto que precisa ser enfrentado. A inclusão digital de pessoas com deficiência não deve ser tratada como um favor, mas como um direito básico. E a IA, que promete moldar o futuro, tem a obrigação de ser acessível, justa e plural.

Leia também: Como a inteligência artificial está mudando a vida das PcDs de formas que você nem imagina

O futuro da inteligência artificial PcD

O caso de Jess Smith mostra que avanços são possíveis — e que a pressão social e midiática pode gerar mudanças reais.

Depois que a BBC questionou o sistema da OpenAI, Jess finalmente conseguiu ver sua imagem fielmente representada.

Pequeno passo para uma mulher, grande passo para a representatividade PcD na tecnologia.

Como ela mesma resume:

“Quando a IA evolui com base na inclusão, todos nós ganhamos. Não é apenas progresso tecnológico — é progresso humano.”

Essa frase sintetiza o desafio e o propósito da inteligência artificial PcD: um futuro onde a tecnologia não apenas reconheça corpos diversos, mas também celebre a diferença como parte essencial da humanidade.

O aprendizado aqui é claro. Assim como na sociedade, a IA reproduz o que aprende — e se os dados que a alimentam ignoram pessoas com deficiência, ela perpetua invisibilidades. Por isso, o treinamento ético e inclusivo dos algoritmos se torna urgente. Modelos de IA precisam ser criados com dados que representem todas as formas de corpo, comunicação e existência.

Empresas de tecnologia, universidades e governos têm um papel decisivo nessa transformação. Iniciativas voltadas à acessibilidade digital, como o Passe Livre PcD ou o RG PcD, já mostraram que políticas inclusivas podem impactar diretamente a vida de milhões. O mesmo deve acontecer com a IA — agora não apenas para incluir, mas para reprogramar o olhar da tecnologia sobre as pessoas com deficiência.

Outro ponto fundamental é a participação ativa das PcDs na construção dessas tecnologias. Como defende Abran Maldonado, CEO da Create Labs, “é sobre quem está na sala quando os dados estão sendo criados”. Se as pessoas com deficiência não participarem da concepção e da validação dos algoritmos, os sistemas continuarão reproduzindo os mesmos vieses de exclusão que existem fora do ambiente digital.

O futuro da inteligência artificial PcD depende, portanto, de três pilares: representatividade, ética e acessibilidade.

  • Representatividade, porque é preciso que os modelos reconheçam e valorizem corpos diversos.

  • Ética, para que o desenvolvimento tecnológico respeite os direitos humanos e a dignidade das pessoas com deficiência.

  • Acessibilidade, garantindo que todos possam usar, compreender e se beneficiar das inovações digitais.

Mais do que inovação, trata-se de inclusão com propósito. Cada atualização de algoritmo, cada refinamento de modelo, deve ser visto como uma oportunidade de reparar a ausência histórica das PcDs nos espaços de criação tecnológica.

Se a inteligência artificial tem o poder de aprender e evoluir, que ela aprenda, então, com a pluralidade do mundo real.

O futuro que começa a se desenhar é o de uma IA empática, responsável e consciente, capaz de reconhecer a beleza da diversidade humana. Um futuro em que histórias como a de Jess Smith não serão mais exceção, mas sim o novo padrão de uma tecnologia verdadeiramente inclusiva.

Vera Garcia

Paulista, pedagoga e blogueira. Amputada do membro superior direito devido a um acidente na infância.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

error: Content is protected !!
Acessar o conteúdo