Jeśli będziecie oglądać przekazy z tegorocznego Wimbledonu, to istnieje duże prawdopodobieństwo, że wysłuchacie komentarzy i przeczytacie napisy w materiałach wideo, przekazywanych przez organizatorów najbardziej prestiżowego turnieju tenisowego na świecie, przygotowanych przez… sztuczną inteligencję.
Tomasz Deptuła
Organizator Wimbledonu, All England Club, jest bardziej znany ze swojego konserwatyzmu niż z wprowadzania rewolucyjnych zmian. W porównaniu z innymi turniejami wielkiego szlema to właśnie na londyńskiej trawie jest najciszej, najdostojniej i najpoważniej. Znany jest chociażby upór organizatorów dotyczący obowiązku występowania w białych strojach. Polecenia sędziów nakazujących tenisistom wymianę kolorowych sznurowadeł w butach nie są tylko anegdotą.
Tym bardziej zdumienie może budzić informacja, że All England Club skorzysta z platformy sztucznej inteligencji IBM o nazwie Watsonx do tworzenia komentarzy zarówno w wersji audio, jak i pisanej. Ludzie z IBM od razu zastrzegają, że mają one mieć jedynie komplementarny charakter. “Nie można przecież zastąpić Johna McEnroe podczas komentarza” – tłumaczy Kevin Farrar z IBM. A eksperci od sztucznej inteligencji od razu dodają, że to tak naprawdę żadna nowość. Podobną technologię, pozwalającą na przeprowadzanie bardzo szybkich analiz angażujących uwagę odbiorów, stosuje się także przy relacjach z innych zawodów sportowych, np. rozgrywek koszykarskiej ligi NBA. W samym tenisie z usług sztucznej inteligencji skorzystano niedawno przy kreowaniu komentarzy z kortów Rolanda Garrosa w Paryżu.
CO MOŻE AI
Sztuczna inteligencja (artificial intelligence – AI) jest dla zwykłego zjadacza chleba tworem skomplikowanym, a w związku z tym często demonizowanym. Od dotychczasowych programów i sieci komputerowych odróżnia ją możliwość wykorzystania coraz większych potencjałów obliczeniowych komputerów do uczenia się, rozwiązywania problemów, ulepszania systemów lub przewidywania zachowań i działań na podstawie analizy zebranych danych.
Nie ma jeszcze wypracowanej prawnie definicji, ale generalnie mamy do czynienia z rzeczywistością, w której wprowadzone dane są analizowane, uaktualnianie i w sposób inteligentny przetwarzane w czasie rzeczywistym na podstawie weryfikacji z uwzględnieniem stale zmieniających się warunków otoczenia.
AI zdążyła wejść w nasze życie niepostrzeżenie, ale bardzo głęboko. Korzystamy z niej na co dzień przy wyszukiwaniach internetowych (nieustanne dopasowywanie się algorytmów do naszych potrzeb), usługach cyfrowych asystentów, tłumaczeniach, tworzeniu inteligentnych systemów zarządzania infrastrukturą, budynkami czy całymi miastami lub w samochodach autonomicznych. Sztuczna inteligencja wykorzystywana jest także w przemyśle filmowym, włącznie z możliwościami tworzenia za jej pośrednictwem tzw. deep fake’ów – materiałów wykorzystujących wizerunki rzeczywistych postaci (często już nieżyjących) do tworzenia zupełnie nowych treści.
AI dosięgła też zawodów i profesji, które – jak się wydawało – na zawsze miały być związane z człowiekiem. Wykorzystywana jest np. przy tworzeniu materiałów dziennikarskich. Dziś naprawdę trudno odróżnić, czy treść na stronie internetowej została stworzona ręką człowieka, czy maszyny.
Produktem związanym ze sztuczną inteligencją, z którym stykamy się najczęściej, jest komunikator taki jak ChatGPT, wyprodukowany przez spółkę Open AI. W udostępnionej konfiguracji ChatGPT jest zdolny m.in. do pisania programów komputerowych czy samodzielnego tworzenia tekstów na poziomie literackim. Jest też w stanie formułować odpowiedzi na pytania na podstawie posiadanych informacji i poprawiać własne błędy. Ale sztuczną inteligencję można wykorzystywać także w innych celach. Deep fake’i – czyli zapisy dźwięku i obrazu wyglądające jak rzeczywiste – mogą posłużyć jako bezpośrednia broń psychologiczna. Dziś technicznie możliwe jest przygotowanie przemówienia polityka, np. prezydenta Ukrainy, ogłaszającego gotowość kapitulacji wobec Rosji. Oddziaływanie takiego przekazu mogłoby się okazać trudne do przewidzenia.
MIĘDZY STEREOTYPAMI A RZECZYWISTOŚCIĄ
Wokół tematu sztucznej inteligencji narosło wiele stereotypów, podsycanych przez sferę kultury masowej. Wizja potężnego sztucznego mózgu przejmującego kontrolę nad światem przy pomocy armii robotów to schemat masowo powtarzany nie tylko w literaturze science fiction klasy B czy C, ale także przez masowe produkcje Hollywood, takie jak choćby “2001. Odyseja kosmiczna” Stanleya Kubricka czy zainicjowany przez Jamesa Camerona cykl filmów o Terminatorze – żeby wymienić najbardziej klasyczne przykłady. Ale liczba filmów, których scenariusz stanowi wariację opowieści o zbuntowanym sztucznym mózgu, idzie w dziesiątki, jeśli nie setki.
W takiej atmosferze trudno naprawdę dyskutować o problemie, który zostanie z nami na dłużej. Ale sztucznej inteligencji nie powinniśmy się obawiać się w sposób irracjonalny. Nad zjawiskiem trzeba racjonalnie dyskutować i ustalić, na ile zyski z zastosowania AI dla podniesienia kreatywności i produktywności będą obciążone ryzykiem dla bezpieczeństwa ludzi. Zamiast więc emocjonować się wizją zbuntowanych robotów strzelających do ludzi, warto zastanawiać się nad tym, jak w sensowny sposób pobudzać innowacje w zakresie sztucznej inteligencji, tak aby nie tworzyć technologicznego chaosu i jednocześnie nie szkodzić ludziom. Nie brak bowiem ostrzeżeń z poważnych środowisk naukowych, że AI już wkrótce może wyeliminować wiele zawodów wykonywanych przez człowieka.
Słychać też coraz więcej głosów, aby rozwój sztucznej inteligencji wpasować w sztywny gorset regulacji. Problem w tym, że ustalenie standardów etycznych dotyczących sztucznej inteligencji dotyczyć będzie przede wszystkim podmiotów związanych z cywilizacją zachodnią – krajów rozwiniętych kierujących się w podejmowanych decyzjach podstawowymi zasadami etycznymi. Podjęte kroki na rzecz samoograniczenia nie będą jednak stanowiły przeszkód dla podmiotów pragnących wykorzystać AI w celach niemających nic wspólnego z etyką. Sztuczną inteligencję można zastosować zarówno w pogłębianiu cyberbezpieczeństwa, jak też do doskonalenia ataków na systemy informatyczne.
Na razie próbę wprowadzenia ograniczeń dla funkcjonowania i wykorzystania AI podejmuje Unia Europejska, widząc w tej technologii zagrożenie dla demokracji i wolności. Europejczycy proponują wprowadzenie zakazu wykorzystywania AI w przestrzeni publicznej między innymi w systemach identyfikacji biologicznej, rozpoznawania emocji, tworzenia baz danych na podstawie rozpoznawania twarzy, nie mówiąc już o próbach wpływania na wyborców i wyniki wyborów. Parlament Europejski chce także, aby generatywne systemy sztucznej inteligencji, takie jak ChatGPT, spełniały wymogi przejrzystości. Tym próbom warto przyglądać się bliżej, nie zapominając jednak, że są na świecie podmioty – zarówno państwowe, jak i prywatne – które w żaden sposób nie są zainteresowane narzucaniem AI jakiegokolwiek regulacyjnego kagańca. To ich naprawdę należy się obawiać i zachowywać czujność. Bo, jak w przypadku Wimbledonu, może chodzić tylko o komentarz dotyczący grupy pań i panów odbijających piłkę na trawie, ale w innych wypadkach może już chodzić o sprawy dużo poważniejsze. A wtedy ustalenie, kto i dlaczego tak naprawdę do nas mówi, może mieć kluczowe znaczenie.