Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Vieses, ilusões e decisões: até que ponto podemos confiar na inteligência artificial?
0
Zitationen
3
Autoren
2026
Jahr
Abstract
A Inteligência Artificial (IA), desenvolvida desde a década de 1950, é uma tecnologia de propósito geral que requer análise crítica de suas implicações éticas, epistemológicas e sociotécnicas. Embora prometa inovação e eficiência, suscita preocupações como vieses algorítmicos, bolhas sociais, alucinações e opacidade dos modelos. Neste ensaio teórico, a confiabilidade da IA é discutida a partir de três eixos: os vieses, as “ilusões” e as decisões tomadas com base em suas respostas. Para isso, adota-se uma abordagem metodológica qualitativa, centrada na revisão de literatura, dialogando com autores como Rivoltella (2024) e Fantin (2024). Mostra-se que os vieses algorítmicos refletem preconceitos presentes nos dados de treinamento, como ocorre com o ChatGPT e sistemas de reconhecimento facial que falham na identificação de rostos negros, reforçando culturas hegemônicas e afetando o campo educacional. As "ilusões" contribuem para a disseminação de desinformação e fortalecem a pós-verdade. Neste cenário, a literacia em IA torna-se essencial para que os usuários reconheçam limitações e falhas. As decisões automatizadas baseiam-se frequentemente em modelos opacos, que comprometem a explicabilidade e demandam mediação humana ativa. Ainda, a concentração da produção de IA em grandes corporações privadas intensifica a falta de transparência e aprofunda desigualdades tecnológicas, especialmente em países periféricos. Conclui-se que a confiança na IA deve ser entendida como construção contínua e situada, entrelaçada a decisões humanas, interesses econômicos e estruturas de poder. Assim, confiar na IA exige manter a responsabilidade sobre seu uso, com mediação crítica e fundamentação em princípios de justiça, equidade e liberdade cognitiva, reforçando a necessidade urgente de uma educação crítica e da literacia em IA.
Ähnliche Arbeiten
Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI
2019 · 8.312 Zit.
Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead
2019 · 8.169 Zit.
High-performance medicine: the convergence of human and artificial intelligence
2018 · 7.564 Zit.
Proceedings of the 19th International Joint Conference on Artificial Intelligence
2005 · 5.776 Zit.
Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)
2018 · 5.466 Zit.