Istraživači umjetne inteligencije objavili su da su iz baze podataka koja se koristi za obuku popularnih AI alata za generiranje fotografija obrisali više od 2.000 web-linkova sa sumnjivim slikama seksualne zloupotrebe djece.
Neprofitnu organizacija Large-scale Artificial Intelligence Open Network (LAION), istraživačka baza podataka objavila je indeks online fotografija i opisa koji je korišten od strane vodećih AI alata za generiranje fotografija kao što su Stable Diffusion i Midjourney, prenosi AP.
Međutim, u prošlogodišnjem izvještaju Stanford Internet Opservatorije otkriveno je da baza sadrži linkove prema seksualno eksplicitnim fotografijama djece, što je doprinijelo da neki AI alati s lakoćom proizvode fotorealistične deepfake fotografije koje u kojima su zloupotrijebljena djeca zbog čega ih je LAION odmah uklonio iz svoje baze podataka.