EPISODE · Apr 26, 2026 · 36 MIN
[153] למידה אדוורסריאלית
from ExplAInable · host Tamir Nave, Mike Erlihson, Uri Goren, Hila Paz Herszfang
מה הקשר בין הרעלת training data להורדת הסבירות ל- end of text token?בפרק 153 של אקספליינבל, אורי ומייק מארחים את ד״ר רז לפיד ואילון מזרחי לשיחה על למידה אדוורסריאלית. לא זו מארכיטקטורת GAN, אלא כזו שגורמת למודלי LLM לצטט את החוקה האמריקאית ולבזבז יותר מדי טוקנים. בפרק למדנו על תקיפות שמתחילות בwhitebox עם מודל opensource ונודדות למודלים סגורים, תקיפות פיזיות על מערכות סגורות שאומנו לזיהוי בני אדם, ואיך אפשר להתמודד עם מתקפה שמורידה את הסבירות שמודל שפה יוצא end of text token. אז האם אייג׳נטים שמשתמשים במודל סגור יותר בטוחים מכאלו שמשתמשים במשקולות מhugging face? איך תוקפים מרעילים תוצאות כשכל מה שיש להם הוא גישה ל training data? האם אורי ורז יפתחו עסק צדדי של הדפסת חולצות שיגרמו לנו להיות בלתי נראים?ה scholar של קרליני: https://scholar.google.com/citations?user=q4qDvAoAAAAJ&hl=enהגנה "לא מפוקחת" שהתקבלה ל ICCV: https://openaccess.thecvf.com/content/ICCV2025W/SafeMM-AI/html/Mizrahi_Pulling_Back_the_Curtain_Unsupervised_Adversarial_Detection_via_Contrastive_Auxiliary_ICCVW_2025_paper.htmlהתקפת black box על object detectors שהתקבלה ל - ECML: https://arxiv.org/abs/2303.04238
NOW PLAYING
[153] למידה אדוורסריאלית
No transcript for this episode yet
Similar Episodes
May 11, 2026 ·21m
May 10, 2026 ·20m
May 9, 2026 ·18m
May 8, 2026 ·25m
May 7, 2026 ·18m
May 3, 2026 ·24m