#32 - Como enganar um carro autônomo. Explicando adversarial attacks.
An episode of the Vida com IA podcast, hosted by Filipe Lauar, titled "#32 - Como enganar um carro autônomo. Explicando adversarial attacks." was published on January 6, 2022 and runs 18 minutes.
January 6, 2022 ·18m · Vida com IA
Summary
Fala galera, nesse episódio eu falo sobre como atacar redes neurais e também como defender a sua rede contra esses ataques. Nesse episódio eu dou o exemplo de atacar carros autônomos, como as pessoas criam imagens que fazem esse carro pensar que uma pessoa é uma árvore ou um carro, por exemplo, e explico também os métodos que fazem isso. Eu também falo sobre como defender a sua rede desses ataques usando diferentes técnicas de adversarial defenses. Instagram: https://www.instagram.com/podcast.lifewithai/ Linkedin: https://www.linkedin.com/company/life-with-ai Código: https://github.com/filipelauar/projects/blob/main/adversarial_attacks_pytorch.ipynb
Episode Description
Fala galera, nesse episódio eu falo sobre como atacar redes neurais e também como defender a sua rede contra esses ataques. Nesse episódio eu dou o exemplo de atacar carros autônomos, como as pessoas criam imagens que fazem esse carro pensar que uma pessoa é uma árvore ou um carro, por exemplo, e explico também os métodos que fazem isso. Eu também falo sobre como defender a sua rede desses ataques usando diferentes técnicas de adversarial defenses.
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai
Código: https://github.com/filipelauar/projects/blob/main/adversarial_attacks_pytorch.ipynb
Similar Episodes
Mar 30, 2026 ·3m
Mar 25, 2026 ·2m
Mar 23, 2026 ·2m
Mar 10, 2026 ·2m