Artyści i twórcy składają pozwy przeciwko firmom zajmującym się sztuczną inteligencją, w tym OpenAI, za wykorzystanie ich dzieł w zestawach danych do szkolenia modeli AI, które często były pozyskiwane z internetu bez ich zgody. Aby temu przeciwdziałać, badacze z Uniwersytetu Chicago stworzyli narzędzie o nazwie Nightshade, które jest dostępne jako otwarty kod źródłowy. Narzędzie to potrafi subtelnie zmieniać piksele na obrazach w taki sposób, że “zatrute” są one dla modeli AI, nie wpływając na percepcję ludzką. Nightshade może sprawić, że modele AI błędnie interpretują obrazy, np. zamieniając psa w kota, co potencjalnie może odstraszyć firmy AI od używania chronionego prawem autorskim materiału artystów bez ich zgody, przywracając równowagę sił w walce o własność intelektualną artystów. Źródło