Milion niedźwiedzi chodzi po ulicach Hongkongu. Żaba truskawkowa . Kot zrobiony ze spaghetti i klopsików.To tylko kilka opisów tekstowych, które ludzie wprowadzili w ostatnich tygodniach do najnowocześniejszych systemów sztucznej inteligencji, które te systemy — zwłaszcza DALL Imagen firmy Google Research — mogą wykorzystać do tworzenia niewiarygodnie szczegółowych, realistycznie wyglądających obrazów.
Powstałe zdjęcia mogą być głupie , dziwne , a nawet przypominać klasyczną sztukę i są szeroko udostępniane (a czasem bez tchu ) w mediach społecznościowych, w tym przez wpływowe postacie w społeczności technologicznej. DALL-E 2 (który jest nowszą wersją podobnego, mniej wydajnego systemu AI, który został wprowadzony w zeszłym roku ), może również edytować istniejące obrazy, dodając lub usuwając obiekty
Nietrudno sobie wyobrazić, że takie generowanie obrazów na żądanie ostatecznie służy jako potężne narzędzie do tworzenia wszelkiego rodzaju kreatywnych treści, czy to sztuki, czy reklam; DALL-E 2 i podobny system Midjourney zostały już wykorzystane do stworzenia okładek magazynów . OpenAI i Google wskazały kilka sposobów komercjalizacji technologii, takich jak edycja obrazów lub tworzenie obrazów stockowych.
Ani DALL-E 2, ani Imagen nie są obecnie dostępne publicznie. Jednak dzielą problem z wieloma innymi, którzy już to robią: mogą również dawać niepokojące wyniki, które odzwierciedlają uprzedzenia płciowe i kulturowe danych, na których zostali przeszkoleni – danych, które obejmują miliony obrazów pobranych z Internetu.
Tendencje w tych systemach AI stanowią poważny problem, powiedzieli eksperci CNN Business. Technologia może utrwalać krzywdzące uprzedzenia i stereotypy. Obawiają się, że otwarty charakter tych systemów – co czyni je biegłymi w generowaniu wszelkiego rodzaju obrazów ze słów – oraz ich zdolność do automatyzacji tworzenia obrazów oznacza, że mogą zautomatyzować stronniczość na masową skalę. Mają również potencjał do wykorzystania w nikczemnych celach, takich jak szerzenie dezinformacji.
„Dopóki nie można zapobiec tym szkodom, tak naprawdę nie mówimy o systemach, które można wykorzystać w otwartym, w rzeczywistym świecie” – powiedział Arthur Holland Michel, starszy pracownik Rady ds. Etyki w Carnegie, zajmujący się badaniami nad sztuczną inteligencją. i technologie nadzoru.
Dokumentowanie stronniczości
Sztuczna inteligencja stała się powszechna w życiu codziennym w ciągu ostatnich kilku lat, ale dopiero niedawno opinia publiczna zwróciła uwagę – zarówno na to, jak powszechna jest, jak i na to, jak płeć, rasa i inne rodzaje uprzedzeń mogą wkradać się do technologii. W szczególności systemy rozpoznawania twarzy są coraz częściej analizowane pod kątem obaw o ich dokładność i rasistowskie uprzedzenia.OpenAI i Google Research przyznały się do wielu problemów i zagrożeń związanych z ich systemami AI w dokumentacji i badaniach , twierdząc, że systemy te są podatne na uprzedzenia płciowe i rasowe oraz przedstawiają zachodnie stereotypy kulturowe i stereotypy dotyczące płci.