Meta heeft aangekondigd dat het zijn aanpak van AI-gegenereerde content op zijn platforms gaat bijwerken. Deze stap volgt op aanbevelingen van de Oversight Board en het beleidsonderzoeksproces van het bedrijf, waarin ook rekening werd gehouden met publieke opinie en deskundige adviezen.
Vanaf mei zal Meta beginnen met het labelen van een breder scala aan video-, audio- en beeldcontent met het label "Made with AI" wanneer het bedrijf AI-indicatoren detecteert of wanneer gebruikers aangeven dat ze AI-gegenereerde content uploaden. Deze nieuwe labels dekken een groter bereik dan het huidige beleid rond gemanipuleerde media, dat sinds 2020 voornamelijk gericht is op video's die door AI zijn aangepast om iemand iets te laten zeggen wat die persoon niet daadwerkelijk heeft gezegd.
Meer transparantie voor gemanipuleerde media
De beslissing van Meta om AI-gegenereerde content te labelen, is in lijn met de aanbeveling van de Oversight Board dat transparantie en aanvullende context effectiever zijn dan het simpelweg verwijderen van dergelijke media. Monika Bickert, Vice President of Content Policy bij Meta, verklaarde dat het bedrijf het erover eens is dat deze aanpak de vrijheid van meningsuiting niet onnodig beperkt en tegelijkertijd de mogelijkheid biedt om AI-gegenereerde content te voorzien van labels en context.
Meta's beleidsonderzoeksproces omvatte consultaties met meer dan 120 belanghebbenden in 34 landen. Uit dit overleg bleek brede steun voor het labelen van AI-content, met sterke steun voor opvallende labels in risicovolle situaties. Daarnaast voerde Meta opinieonderzoek uit onder meer dan 23.000 respondenten in 13 landen, waaruit bleek dat 82% van de ondervraagden waarschuwingslabels voor AI-gegenereerde content steunt, vooral wanneer deze mensen laat zeggen wat ze nooit hebben gezegd.
Uitbreiding van het beleid rond gemanipuleerde media
Meta's huidige beleid, dat sinds 2020 van kracht is, richt zich uitsluitend op video's die door AI zijn aangepast om mensen te laten zeggen wat ze niet gezegd hebben. Meta erkent echter dat de technologische landschappen sindsdien drastisch zijn veranderd. Realistische AI-gegenereerde content, zoals audio en foto's, wordt steeds vaker geproduceerd, en de technologie ontwikkelt zich in rap tempo.
Met het nieuwe beleid zal Meta AI-gegenereerde content op zijn platforms houden en voorzien van informatieve labels en context, tenzij de content andere regels van de Community Standards schendt. Het wereldwijde netwerk van bijna 100 onafhankelijke factcheckers van het bedrijf zal doorgaan met het beoordelen van valse en misleidende AI-gegenereerde content. Content die als "onwaar" of "aangepast" wordt beoordeeld, zal lager in de Feeds worden weergegeven en worden voorzien van extra informatie.
Tijdlijn voor de nieuwe aanpak
Meta begint in mei 2024 met het labelen van AI-gegenereerde content en zal vanaf juli stoppen met het verwijderen van content op basis van het huidige beleid rond gemanipuleerde video's. Dit geeft gebruikers de tijd om het zelfmeldingsproces te begrijpen voordat het bedrijf ophoudt met het verwijderen van een kleiner deel van de gemanipuleerde media.
Meta is vastbesloten om nauw samen te werken met industriepartners en de dialoog aan te gaan met overheden en maatschappelijke organisaties naarmate AI-technologie zich verder ontwikkelt. Deze stap is een belangrijke mijlpaal in de voortdurende inspanningen om AI op een verantwoorde en transparante manier te beheren.