Google ma w nosie, czy napiszesz tekst sam, czy zrobi to AI. Szykujcie się na niezły bałagan

Jak to było? Co nie jest prawem zabronione, jest dozwolone? Ale jaki efekt wywoła to prawne dozwolenie, to już zupełnie inna kwestia. I nad tym właśnie zastanawiam się, studiując treść jednego z ostatnich wpisów na blogu Google dla developerów poświęconemu wyszukiwarce w kontekście treści generowanych przez sztuczną inteligencję. Przy tej okazji rośnie we mnie coraz większe przekonanie, że największe zamieszanie dopiero przed nami.
Google ma w nosie, czy napiszesz tekst sam, czy zrobi to AI. Szykujcie się na niezły bałagan

E-E-A-T: expertise, experience, authoritativeness, and trustworthiness (doświadczenie, wiedza, wiarygodność, zaufanie) – na tych czterech filarach ma bazować system rankingowy w wyszukiwarce Google. Co do tego nie mam absolutnie żadnych wątpliwości. Zdecydowanie warto nagradzać przez wysoką pozycję w wynikach wyszukiwania treści unikalne, pochodzące z wiarygodnych źródeł, przygotowane przez kompetentnych autorów.

Jeśli jednak zaczniemy przepuszczać przez taki system treści generowane w sposób zautomatyzowany, a ich jedynym zadaniem będzie wpływ na widoczność i reputację danej witryny w wynikach wyszukiwania, w obrazie opisanym akapit wyżej zaczną szybko blaknąć kolory i straci on mocno na wartości.

Dobra i zła automatyzacja – gdzie przebiega granica?

Google wydaje się tego świadomy, bo od lat mówi jasno, że stosowanie automatyzacji (w tym również narzędzi AI) do takich zabiegów stanowi naruszenie standardów. Z drugiej strony przedstawiciele koncernu twierdzą też, że nie wszystkie wymiary automatyzacji są złe, a zastosowanie sztucznej inteligencji w generowaniu pomocnych dla użytkowników treści (np. wyników sportowych, prognoz pogody czy transkrypcji tekstu) należy odseparować od praktyk niedozwolonych. 

Jak czytamy we wpisie na blogu Google Search Central: sztuczna inteligencja może napędzać nowe poziomy ekspresji i kreatywności, a także służyć jako narzędzie pomagające ludziom tworzyć świetne treści w internecie. Tu również pełna zgoda i sam widzę mnóstwo korzyści z istnienia takich rozwiązań. Jeśli jednak przejdziemy do domeny zarezerwowanej do tej pory wyłącznie dla ludzi (tworzenia pogłębionych i przede wszystkim autorskich treści), zaczynam z niepokojem zerkać na pokusy wykorzystania generatywnego AI w roli ich autora (wcale nie z obawy o własną przyszłość). 

Wolałbym wiedzieć kto (lub co) jest autorem tekstu

Nieuchronnie dochodzimy do miejsca, w którym teksty pisane przez maszynę staną się nieodróżnialne od tych, wychodzących spod ludzkiej ręki. Mam przy tym wrażenie, że dla samego Google nie ma to większego znaczenia (drogi Google, popraw mnie, jeśli jestem w błędzie). Tymczasem dla mnie ma i wolałbym mieć świadomość, że ktoś po drugiej stronie poświęcił swój czas na przygotowanie tego co czytam. Bardziej ktoś, niż coś. Nawet jeśli do przygotowania czerpał z narzędzi bazujących na sztucznej inteligencji. 

Czytaj też: Sztucznej inteligencji lepiej nie ufać. Google dopiero co pokazał Barda, a ten już zaliczył wpadkę

Nie chcę brać udziału w przyszłości, której jedynym zadaniem tworzących treści będzie wrzucenie kilku składników do wielkiego garnka i cierpliwe oczekiwanie na efekt końcowy. Thermomix szanuję i znam ludzi, którzy dzięki niemu lepiej żyją, ale nie wyobrażam sobie, żeby został jedynym możliwym sposobem przygotowywania posiłków w każdym domu. Nie idźmy scenariuszem ułatwiania sobie życia do maksimum. Do komfortu bardzo szybko się przyzwyczajamy, ale ten komfort nas ostatecznie kiedyś pozabija.