5 przykazań Microsoftu. Mają pomóc światu zapanować nad sztuczną inteligencją

Powiedzieć, że Microsoft związał się ze sztuczną inteligencją (SI) na dobre i na złe, to jakby nie powiedzieć nic. Zwłaszcza po ostatnich ogłoszeniach, po których dla firmy nadszedł najwyraźniej najwyższy czas na zrobienie krok w tył, przeanalizowanie aktualnego stanu SI na świecie i opublikowanie raportu AI Governance: A Blueprint for Action.
Microsoft ChatGPT
Microsoft ChatGPT

Czy powinniśmy się bać sztucznej inteligencji? Nie, ale jej kwestią i tak musi zająć się władza

Automatyzacja postępuje od dekad i sztuczna inteligencja jest zdecydowanie kolejnym etapem, który podobnie jak maszyny parowe i pierwsze zautomatyzowane maszyny, pozbawi wiele osób pracy. W dążeniu do zaspokajania ludzkiej chęci ciągłego rozwoju i ulepszania siebie oraz społeczeństwa, trudno walczyć z tak potężnym narzędziem i się mu przeciwstawiać, ale nawet zakochany wręcz w SI Microsoft uważa, że ta powinna być regulowana i odpowiednio zarządzana. Słusznie, bo jest to narzędzie zbyt potężne, żeby władze przemilczały temat i udawały, że na horyzoncie nie widać już problemów ze sztuczną inteligencją, a widać bardzo dobrze i świetnym tego przykładem jest kwestia praw autorskich oraz generowanych grafik.

Czytaj też: Sztuczna inteligencja ma konkurenta. Teraz obliczenia wykonuje się z użyciem układów opartych na mózgu

Przejaw tego widać w raporcie AI Governance: A Blueprint for Action, który przedstawia coś w rodzaju planu działania na zarządzanie sztuczną inteligencją, którym powinny zainteresować się rządy. Zapisane w nim “reguły” zostały nakreślone na podstawie doświadczeń Microsoftu, a także na współpracy z decydentami politycznymi, środowiskiem akademickim, społeczeństwem obywatelskim i partnerami branżowymi na całym świecie, którzy specjalizują się w opracowywaniu i wdrażaniu SI.

Wspomniane reguły wskazane przez Microsoft mają za zadanie sprawić, aby sztuczna inteligencja była zawsze godna zaufania i nie działała na szkodę ludzi. Wedle firmy osiągnięcie tego jest jak najbardziej możliwe, ale świat musi przestrzegać kilku reguł, wśród których wyróżnia się ustanowienie nowych wymogów bezpieczeństwa dla systemów i usług wykorzystujących sztuczną inteligencję oraz regulacji dla aplikacji wysokiego ryzyka. Trudno się temu dziwić, mając z tyłu głowy przykład m.in. Samsunga, którego pracownicy mogli zaszkodzić firmie, po prostu korzystając z ChataGPT.

Czytaj też: Coraz więcej krajów przeciwko ChatGPT. Sztuczna inteligencja musi podlegać kontroli

Microsoft uważa również, że jako społeczeństwo potrzebujemy też promowania większej przejrzystości i odpowiedzialności za decyzje dotyczące sztucznej inteligencji, co oznacza przede wszystkim to, aby rządy wymagały od twórców i dostawców sztucznej inteligencji ujawniania istotnych informacji na temat ich systemów i usług. Powinny też umożliwić niezależne audyty i oceny systemów SI, a także stworzyć mechanizmy konsultacji dla społeczeństwa.

Jesli z kolei idzie “o nas”, czyli zwyczajnych obywateli, którzy z narzędzi sztucznej inteligencji tylko korzystamy, Microsoft chce, aby władze zapewniły nam kontrolę nad ich danymi, a także możliwość kwestionowania oraz rezygnacji z decyzji podjętych przez SI przy bardziej obligatoryjnych systemach. Wymaga to jednocześnie potrzeby wspierania rozwoju umiejętności cyfrowych wśród obywateli, a więc poczynienia inwestycji w edukację i rozwój umiejętności w zakresie sztucznej inteligencji.

Czytaj też: Sztuczna inteligencja wszędzie i dla każdego. Ten mózg dla AI ma szansę zmienić świat

Prezes Microsoftu ma nadzieję, że te wytyczne pomogą przyspieszyć globalną rozmowę na temat zarządzania sztuczną inteligencją i zainspirują powstanie nowych współprac między rządami, przemysłem, środowiskiem akademickim i społeczeństwem obywatelskim.

PS – po więcej materiałów najwyższej jakości zapraszamy na Focus Technologie. Subskrybuj nasz nowy kanał na YouTubie!