Meta ligt onder vuur in een AI-rechtszaak waarbij het draait om de vermeende gebruikte pornografie; Meta verklaart dat het materiaal uitsluitend voor persoonlijk gebruik werd gedownload.
Meta AI pornografie rechtszaak werpt vragen op over datagebruik
Verweer van Meta: geen AI-training met pornografisch materiaal
In een recent ingediende motie tot verwerping stelt Meta dat haar medewerkers de betrokken videobestanden puur voor persoonlijk gebruik hebben gedownload. Volgens Meta is het onjuist dat het pornografische materiaal van Strike 3 Holdings ooit terechtkwam in AI-trainingsdatabases.
Oorsprong van het geschil
De rechtszaak werd aangespannen door Strike 3 Holdings, een bedrijf dat bekendstaat om de bescherming van zijn auteursrechten op erotische content. Zij beweren dat Meta hun films zonder toestemming heeft gebruikt om AI-modellen te trainen, iets wat Meta volgens eigen zeggen nooit gedaan heeft.
Technische ontsluiting van de bestanden
Meta erkent dat er toegang is geweest tot enkele Strike 3-titels binnen zijn systemen, maar benadrukt dat deze bestanden zijn opgeslagen in persoonlijke mappen van medewerkers. Er zou geen enkele koppeling zijn met modeltraining of geautomatiseerde verwerking.
Interne richtlijnen en databeveiliging
Het technologiebedrijf wijst op strenge interne beleidsregels rond data-ethiek en contentgebruik. Volgens Meta sluit het beleid expliciet uit dat ongeautoriseerd of auteursrechtelijk beschermd materiaal wordt ingezet voor kunstmatige intelligentie.
Belangrijkste standpunten in het dossier
- Meta verzoekt de rechtbank de zaak te seponeren wegens gebrek aan bewijs van misbruik.
- Het bedrijf geeft aan volledig mee te werken met het onderzoek en transparant te zijn over welke data hun AI wel en niet traint.
- Meta herhaalt dat risicobeheersing en ethiek centraal staan in hun AI-ontwikkeltrajecten.
- Strike 3 Holdings blijft vasthouden aan hun claim en benadrukt schade aan hun merk en inkomsten.
- De zaak kan invloed hebben op bredere regelgeving rond datasets voor AI-trainingsdoeleinden.
Deze zaak onderstreept het groeiende belang van duidelijkheid in hoe bedrijven samengestelde data verzamelen en gebruiken in AI-projecten. Transparantie lijkt de sleutel te worden voor vertrouwen in digitale innovatie. Dergelijke vragen rond AI-gebruik en ethiek komen ook naar voren in bredere discussies, zoals de invention van AGI gevaren waarbij de grondlegger waarschuwt voor verkeerd gebruik van kunstmatige intelligentie.
Ook toezichthouders nemen deze zaken serieus; vergelijkbare bezorgdheid leidde ertoe dat de FTC onlangs stappen ondernam na klachten over AI psychose waarin gebruikers mentale schade door AI-systemen meldden.
Meta AI rechtszaak over pornografie draait om persoonlijk gebruik
Meta stelt dat gedownloade pornografie niet voor AI-training werd gebruikt, maar privé was.












