Przełomowa nowość od Apple’a. iPhone przemówi Twoim własnym głosem

Nowa funkcja, którą zaprezentował Apple może wydawać się niepokojąca, zwłaszcza w dobie licznych oszustw dokonywanych przy pomocy sztucznej inteligencji naśladującej czyjś głos. Gigant z Cupertino stworzył ją jednak w bardzo ważnym celu, podobnie zresztą jak kilka innych ogłoszonych dzisiaj nowości.
Przełomowa nowość od Apple’a. iPhone przemówi Twoim własnym głosem

Rozwój sztucznej inteligencji, jaki właśnie obserwujemy, może niektórych przyprawiać o dreszcze grozy. Trudno się temu dziwić, bo na wyciągnięcie ręki mamy narzędzia pozwalające stworzyć realistycznie wyglądające nagrania z udziałem jakichś znanych osób, a nawet podłożyć ich głos, który będzie prawie niemożliwy do odróżnienia od oryginału. Z takich możliwości chętnie korzystają osoby szerzące fake newsy czy oszuści, próbujący podszywać się pod innych ludzi. W tym kontekście trudno mi było w pierwszej chwili nie podejść sceptycznie do nowego pomysłu Apple’a. Kiedy natomiast dowiedziałam się, o co tak naprawdę w tym chodzi, zmieniłam jednak zdanie.

Garść nowości od Apple’a z okazji Światowego Dnia Świadomości Dostępności

Przypadające na 16 maja święto ma na celu uświadamianie o problemach, jakie w świecie cyfrowym mogą napotykać osoby z niepełnosprawnościami. Nie ma więc lepszego momentu na ogłoszenie nowych funkcji ułatwień dostępu na iPhone’y. Apple przedstawił właśnie ulepszenia, które po wdrożeniu pomogą osobom z różnymi niepełnosprawnościami w łatwiejszym korzystaniu ze smartfonów. Nowości powstały we współpracy ze społecznościami reprezentującymi użytkowników niepełnosprawnych i wykorzystują najnowsze rozwiązania, w celu zapewnienia lepszego komfortu użytkowania iPhone’ów.

Jedną z najciekawszych funkcji wydaje się ta o nazwie Personal Voice, która umożliwia użytkownikowi stworzenie cyfrowej kopii własnego głosu. Wystarczy 15 minut szkolenia, by iPhone mógł przemówić naszym głosem i na pierwszy rzut oka może się to wydawać czymś, co oszuści z pewnością chcieliby wykorzystać w niecny sposób. Tego oczywiście nie da się wykluczyć jak zresztą zwykle w podobnych przypadkach. Apple jednak chce, by z tej funkcji korzystały osoby, którym grozi ryzyko utraty głosu. W ten sposób dostają możliwość stworzenia „syntetyzowanego głosu, który brzmi jak oni” i korzystać z niego w razie potrzeby podczas kontaktu z przyjaciółmi i bliskimi.  Opcja ta integruje się z funkcją Live Speech, więc można na ekranie wpisać to, co chce się powiedzieć, a cyfrowy odpowiednik naszego głosu odczyta komunikat wskazanej osobie.

Trzeba przyznać, że jest bardzo przydatna nowość, która może uczynić życie wielu osób znacznie łatwiejszym. Apple znosi w ten sposób pewną barierę komunikacyjną, bo mogąc używać cyfrowej kopii własnego głosu, osoby niepełnosprawne będą czuły się mniej wyobcowane niż wtedy, gdy musiały korzystać z bezosobowego, często brzmiącego niczym robot, lektora.

Jest to, nawiasem mówiąc, o wiele przydatniejsza (i moim zdaniem rozsądniejsza) opcja niż ta, którą odkryto w niedawno zgłoszonym przez firmę patencie, w ramach którego Apple wymyślił sobie, że wiadomości w iMessage byłyby odczytywane głosem… nadawcy. Ten generowany byłby na podstawie zbieranej przez Siri próbki i przekształcany w plik, który następnie służyłby sztucznej inteligencji odtwarzania głosu danej osoby podczas czytania wiadomości.

Jednak Personal Voice to nie wszystko, co przygotował gigant

 Oprócz tego firma wprowadziła usprawnienia do swoich podstawowych aplikacji w ramach funkcji o nazwie Assistive Access, która ma wspierać użytkowników z zaburzeniami poznawczymi. Aplikacje takie jak FaceTime, Wiadomości, Aparat, Zdjęcia czy Muzyka zostaną dzięki temu uproszczone, zyskując „wyraźny interfejs z przyciskami o wysokim kontraście i dużymi etykietami tekstowymi”. Funkcja dodaje też dodatkowe opcje personalizacji, w zależności od wymagań użytkownika, które mogą wprowadzić zaufane osoby.

Na przykład dla użytkowników, którzy preferują komunikację wizualną, Wiadomości zawierają klawiaturę zawierającą wyłącznie emotikony oraz opcję nagrywania wiadomości wideo w celu udostępnienia ich bliskim. Użytkownicy i zaufani osoby wspierające mogą również wybierać między bardziej wizualnym układem opartym na siatce Ekran główny i aplikacje lub układ oparty na wierszach dla użytkowników, którzy preferują tekst – tłumaczy Apple.

Oprócz tego w Lupie pojawiła się funkcja  Point and Speak, dedykowana osobom z wadami wzroku, by mogły lepiej wchodzić w interakcję z obiektami fizycznymi z licznymi etykietami tekstowymi. Można więc nakierować kamerę na daną etykietę, a urządzenie odczyta na głos jej treść kierowane ruchem palca. Jest to bardzo przydatne np. podczas korzystania ze sprzętów typu kuchenka mikrofalowa czy pralka.

Czytaj też: WWDC 2023 zbliża się wielkimi krokami. Apple szykuje trzęsienie ziemi – wszystko, co musisz wiedzieć

Apple wprowadzi te nowości jeszcze w tym roku, więc spodziewam się, że znajdą się one na pokładzie iOS 17, nowej wersji systemu, która ma zostać zaprezentowana podczas nadchodzącej konferencji WWDC 2023.

Napisane przez

Joanna Marteklas

Redaktor
Zajmuję się tematyką nowych technologii i ich wpływu na codzienne życie. Piszę o cyfrowej kulturze, innowacjach oraz trendach zmieniających sposób, w jaki pracujemy i komunikujemy się ze sobą. Szczególnie interesuje mnie relacja między rozwojem technologii a współczesną popkulturą. W wolnych chwilach zakopuję się w książkach i komiksach — najczęściej w fantastyce i wuxia.