Wybory w 2024 roku były pierwszymi powszechnie dotkniętymi przez AI-generated disinformation. Jak funkcjonuje deepfake ecosystem i jakie mechanizmy obrony działają?
Wybory prezydenckie w USA 2024 i wybory parlamentarne w kilku krajach europejskich były świadkami bezprecedensowych kampanii dezinformacyjnych. Deepfake audio z głosem polityków, AI-generated 'fake news' artykuły, masowe kampanie botów w social media z AI-generated content. Co zadziałało: EU's Digital Services Act wymógł od platform oznaczanie AI content, OpenAI i Google implementowały content credentials (watermarking).
Co nie zadziałało: watermarking jest łatwy do usunięcia, rozróżnienie prawdziwego od fake'a stało się niemożliwe dla przeciętnego odbiorcy. Podejście techniczne: Coalition for Content Provenance and Authenticity (C2PA) buduje standard dla 'content pedigree' — każdy plik mediów zawiera kryptograficzny podpis twórcy. Podejście edukacyjne: media literacy jako nowa umiejętność podstawowa — jak weryfikować źródła w erze AI-generated content.