Lektura Reddita zrobiła z SI psychopatę

Dla porównania, używając tego samego algorytmu, uczeni wytrenowali sztuczną inteligencję na zbiorze zwykłych zdjęć. Wyniki były zdecydowanie bardziej “normalne”. Eksperyment pokazuje, jak wielkie znaczenie mają nie tylko algorytmy, ale także rodzaj danych, którymi karmiona jest sztuczna inteligencja. Po części wyjaśnia to dziwne zachowanie sztucznej inteligencji Microsoftu na Twitterze, która w 24 godziny po uruchomieniu zaczęła wygłaszać rasistowskie opinie, przez co producent oprogramowania zdecydował się wyłączyć swojego bota.
Lektura Reddita zrobiła z SI psychopatę

Norman AI po lekturze Reddita stał się psychopatą (graf. MIT)

To kolejny przykład na to, że sztuczna inteligencja może być niebezpieczna. W zeszłym roku pisaliśmy o tym, że SI stworzona przez naukowców z Carnegie Mellon zaczęła urządzać czystki etniczne i toczyć bratobójcze wojny zamiast w pokojowy sposób rozwiązywać spory w wirtualnym społeczeństwie.

SI trenowana na innym zbiorze danych opisywała obrazy w zdecydowanie bardziej normalny sposób (graf. MIT)

Prace naukowców zarówno z MIT jak i Carnegie Mellon pokazują też, że narzędzia i programy, które tworzymy na nasze podobieństwo są lustrzanym odbiciem nas samych. Z tego powodu bardzo istotne, abyśmy “wychowywali” cyfrowe byty w sposób odpowiedzialny. Jak bowiem na załączonym przykładzie widać bardzo łatwo sprowadzić cyfrową jaźń na złą drogę. Smaczku całej sprawie dodaje fakt, że nazwali cybernetycznego czytelnika Reddita imieniem Norman. To imię seryjnego mordercy, głównego bohatera “Psychozy” Alfreda Hitchcocka. | CHIP