EPISODE · Jan 14, 2022 · 1H 18M
Lambda3 Podcast 282 – Responsabilidade e Ética em Ciência de Dados
from Lambda3 Podcast · host TIVIT
Hoje vamos falar um pouco sobre ética e responsabilidade quando do uso de dados, principalmente quando da coleta e análise de grande quantidade de dados e, obviamente, dos problemas advindos do uso de tal Big Data. Entre no nosso grupo do Telegram e compartilhe seus comentários com a gente: https://lb3.io/telegram Feed do podcast: www.lambda3.com.br/feed/podcast Feed do podcast somente com episódios técnicos: www.lambda3.com.br/feed/podcast-tecnico Feed do podcast somente com episódios não técnicos: www.lambda3.com.br/feed/podcast-nao-tecnico Lambda3 · #282 – Responsabilidade e Ética em Ciência de Dados Pauta: Quais problemas podem advir do uso indiscriminado de IA & ML? O que é uso ético e responsável de dados? Por que essa discussão tem surgido com mais força nos últimos anos? Qual a importância? Hoje em dia muito se tem discutido a respeito dos vieses em bases de dados e, principalmente, aplicações automatizadas. Como poderíamos definir melhor o que é um uso ético e responsável de dados? Questão do viés em dados e algoritmos, existem bons exemplos onde essa questão foi tratada de maneira adequada? A discussão sobre ética e responsabilidade em IA é um dilema social ou técnico? De quem é a responsabilidade quando tratamos de problemas e preconceitos advindos de sistemas de IA? E ainda sobre isso, qual o papel do desenvolvedor em garantir sistemas éticos? Quais os caminhos para começar essa discussão com o meu time e quem deve estar a frente da discussão? Os governos devem estabelecer diretrizes e leis sobre isso ou a discussão sobre responsabilidade deve ficar a cargo das empresas? O Brasil se encontra em comparação com outros países quando falamos do estado da arte e do desenvolvimento ético em IA? Existem frameworks ou técnicas que auxiliam na construção de sistemas de IA garantindo mais transparência e ética? Links Citados: Exemplo de interrupção de uso de reconhecimento facial – Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica | Tecnologia | G1 (globo.com) Watch Coded Bias | Netflix Fairlearn Responsible AI Resources – Microsoft AI Responsible AI Toolkit | TensorFlow Responsible AI practices – Google AI FATE: Fairness, Accountability, Transparency, and Ethics in AI: Projects – Microsoft Research GitHub – interpretml/interpret: Fit interpretable models. Explain blackbox machine learning. Fairness, accountability, transparency, ethics – Amazon Science Justice: What’s The Right Thing To Do? Episode 01 “THE MORAL SIDE OF MURDER” – YouTube Using the What-If Tool | AI Platform Prediction | Google Cloud Google AI Blog: Setting Fairness Goals with the TensorFlow Constrained Optimization Library (googleblog.com) fairlearn.postprocessing package — Fairlearn 0.5.0 documentation Participantes: Ahirton Lopes – @AhirtonLopes Bianca Ximenes – @biancaxis Vinicius Caridá – @vfcarida Edição: Compasso Coolab Créditos das músicas usadas neste programa: Music by Kevin MacLeod (incompetech.com) licensed under Creative Commons: By Attribution 3.0 – creativecommons.org/licenses/by/3.0
NOW PLAYING
Lambda3 Podcast 282 – Responsabilidade e Ética em Ciência de Dados
No transcript for this episode yet
Similar Episodes
Mar 26, 2026 ·1m
Jan 2, 2026 ·47m
Dec 21, 2025 ·46m