Przyszłość jest dziś / Czym jest sztuczna inteligencja?

https://www.youtube.com/watch?v=SwiDO9zpxGo
Pobierz pliki

[SPEAKER_02] Dzień dobry. Słuchacie Państwo audycji Polityki Insight Przyszłość jest dziś, w której rozmawiamy o technologiach i ich wpływie na nasze codzienne życie. Naszymi gośćmi są eksperci i politycy, naukowcy i przedsiębiorcy. Wspólnie zastanawiamy się jak sztuczna inteligencja, roboty, drony, biometryka czy internet rzeczy zmieniają społeczeństwo i nas samych. Partnerem audycji jest Orange Polska. Zapraszam do słuchania. Marek Świerczyński.

Terminu sztuczna inteligencja po raz pierwszy użył amerykański matematyk i informatyk John McCarthy w 1956 roku, ale już dekadę wcześniej Vannemar Bush, bardziej znany ze swojej roli rządowego nadzorcy programu Manhattan, czyli budowy amerykańskiej bomby jądrowej. Zastanawiał się, czy maszyny można nauczyć myśleć. Potem nadeszły prace Anglika Alana Turinga, dzięki któremu wiemy, że komputer teoretycznie może kiedyś zdać test na inteligencję. Ale mimo upływu 70 lat od tych początków, do dziś tak do końca nie wiadomo, co to takiego ta sztuczna inteligencja. Nawet naukowa i akademicka sieć komputerowa, w skrócie NASK, czyli jedna z najstarszych w Polsce instytucji zajmujących się cyfrowym światem, nie ma gotowej, spójnej definicji. Specjalistka od cyberbezpieczeństwa Magdalena Wrzosek mówi, że AI to termin wyjątkowo szeroki i pojemny.

Coś, o czym wszyscy mówią, a nikt nie wie jeszcze, czym jest do końca. Nie ma jednej definicji, na którą wszyscy moglibyśmy się zgodzić, jeżeli chodzi o sztuczną inteligencję. To jest w ogóle takie bardzo pojemne hasło, w które wszystko można upchnąć, tak? Dlatego pewnie tak działa nam na wyobraźnię, że z jednej strony trochę przypominają nam się takie filmy z lat dziewięćdziesiątych, gdzie mamy tego robota, który z przyszłości tutaj atakuje człowieka, tak? Z drugiej strony takie wynalazki, które czasami są tam pokazywane na różnych konferencjach i trochę też nas elektryzują, jak na przykład robot Sofia, który potrafi mówić, potrafi coś tam zrobić i to jest takie niesamowite, że jakby maszyna przyjmuje tutaj trochę postać człowieka i może właśnie dlatego to jest mylące, bo my często tą sztuczną inteligencję wyobrażamy sobie jako właśnie maszynę, która nas zastąpi albo będzie tak bardzo człowiekopodobna, że wyprze nas w ogóle, zacznie za nas jakieś zadania wykonywać. A tak naprawdę to chodzi po prostu o nowy rodzaj technologii, który w jakiś sposób ma nas wspierać.

Roboty, supermaszyny, myślące komputery, wszystko kontrolujący matrix. Hasło sztuczna inteligencja narzuca nam obrazy z filmów science fiction. Ale naukowcy radzą, by na chwilę wyłączyć wyobraźnię. Profesor Jacek Leśkow jest dyrektorem NASK-u, a wcześniej przez kilkadziesiąt lat był badaczem i wykładowcą akademickim. również na Uniwersytecie Kalifornijskim, w wiodącym ośrodku badań nad sztuczną inteligencją. Tłumaczy, że aby zrozumieć, czym jest AI, musimy najpierw zastanowić się, jak to jest z naszą własną, ludzką inteligencją.

Jeżeli mówimy o sztucznej inteligencji, no to wpierw zadajmy sobie pytanie, a co to takiego jest inteligencja? W jaki sposób na przykład małe dzieci uczą się, prawda, nabywają tych podstawowych zdolności na przykład orientacji w przestrzeni, jak my się uczymy obcego języka, Jakie procesy tutaj można od strony inżynierskiej wyodrębnić. I z tej perspektywy dobrze jest patrzeć na sztuczną inteligencję jako na systemy decyzyjne. Analiza obrazów to jest po pierwsze. Systemy do przetwarzania cyfrowego, źródeł typu wideo. Potem stawiania na tych właśnie zbiorach danych, olbrzymich danych, pewnych wzorców i sprawdzanie, czy to, co aktualnie jest w obrazie, jest zbieżne z tym wzorcem czy nie.

Obrazy to nie jedyne, ale dziś bardzo popularne źródło danych. Mogą być nimi też głos, tekst czy liczby. W sumie i tak na potrzeby komputera wszystko trzeba przełożyć na zapis cyfrowy. Jak wyjaśnia prof. Leśkow, by mówić o inteligentnym systemie przetwarzania danych, potocznie zwanym sztuczną inteligencją, niezbędne były trzy podstawowe składniki, istniejące od dawna i wielkie przyspieszenie zdolności liczenia, które człowiek opanował w ostatnich dwóch dekadach.

To jest źródło, są dane, jest pewien wzorzec, nazwijmy go może ogólnie modelem, i jest porównywanie aktualnego zbioru danych, przetworzonego pod pewnym kątem, do tego wzorca. No i sprawdzenie, jest to zgodne czy nie jest zgodne. Proszę zauważyć, że na końcu mamy pewien system decyzyjny. Tak, nie. Chory, zdrowy. Bardziej chory, mniej chory. Mamy albo zariadynkowe zdrowy, chory, albo kilka, albo nawet kilkanaście stopni progresji na przykład choroby nowotworowej. I to jest właśnie natura sztucznej inteligencji. Czyli sztuczna inteligencja to są systemy decyzyjne oparte na różnorakich strukturach danych.

Dochodzimy do wniosku, że nazwa jest trochę myląca, bo sztuczna inteligencja wcale nie polega na budowie cyfrowego mózgu w głowie jakiegoś androida. To raczej przystosowanie cyfrowych maszyn do wykonywania w sumie dość prostych operacji, tyle że na większą skalę i dużo szybciej niż byłby to w stanie zrobić pojedynczy człowiek, a nawet całe zespoły ludzkie. Tak to widzi Izabela Żmudka, która zajmuje się sterowaniem badań nad sztuczną inteligencją finansowanych z budżetu państwa przez Narodowe Centrum Badań i Rozwoju.

Na początku było to podejście takie, że chcieliśmy, żeby sztuczna inteligencja odtworzyła nasz umysł i próbowaliśmy tak jakby w krzemie wykuć inteligencję. Ten kierunek został zarzucony na rzecz tego, że po prostu sztuczną inteligencję definiujemy teraz jako ta, która uczy się sama. I ucząc się na zasadzie prób i błędów, nagle zobaczyliśmy, że ona się uczy trochę tak jak inteligencja człowieka. Czyli zdobywając pewne doświadczenie, rozwija się i to jest właśnie ten drugi trend, w którym idziemy, czyli takiego uczenia maszynowego. uczenia pogłębionego, który odtwarza w sposób inny samouczący się umysł człowieka. To nie jest ten kierunek, w którym sztuczna inteligencja nas zastąpi, tylko nam pomoże, ponieważ nawet o najwyższym zaawansowaniu sztuczna inteligencja nie ma z kolei tych, które są charakterystyczne dla nas, a mianowicie takiego myślenia abstrakcyjnego i też myślenia etycznego.

O ile do tej pory chodziło o to, by maszyny robiły za nas pewne rzeczy szybciej i wydajniej, dzisiaj coraz częściej zwraca się uwagę, by robiły to z wyczuciem. Zdaniem Żmudki, człowiek tak projektuje algorytmy, by sztuczna inteligencja zaczynała coraz bardziej przypominać tę prawdziwą.

Rozwój sztucznej inteligencji odzwierciedla trochę pory roku, dlatego że mamy zimy i lata sztucznej inteligencji. Obecnie niektórzy naukowcy określają, że mamy wiosnę, a przed nami długie i ciepłe lata. Najbliższe kilkanaście, kilkadziesiąt lat będą dużym zaskoczeniem dla nas, dlatego że do tej pory szliśmy trochę takim rozwojem tej sztucznej inteligencji wykładniczym, czyli że powolniej pewne rzeczy się rozwijały, natomiast teraz już mamy punkty takiego maksymalnego skoku dość szybko. Kiedyś się one zdarzały co cztery lata, teraz już potrafią być takie kroki milowe w ciągu jednego roku, cztery. W związku z tym ten rozwój nastąpi bardzo szybko. Natomiast wciąż to nie jest ten moment, w którym powinniśmy się obawiać, że coś będzie się działo bez naszej kontroli. Natomiast to jest dobry moment, żeby zwrócić uwagę na to, że ten strach jest bardzo dobrym strachem, bo on powoduje, że już teraz należy myśleć o odpowiednich zabezpieczeniach. żeby pewne rzeczy nam spod kontroli nie uciekły, dlatego że to jest też tak, że algorytmy są algorytmami, ale programują je ludzie. W związku z tym, tak jak dobrze je zaprogramujemy, czyli z użyciem odpowiednich zabezpieczeń, ale też etyki, tak będą one pracowały. Więc to jest taki ważny moment, żeby jednocześnie rozwijając sztuczną inteligencję, równolegle rozwijać po pierwsze systemy bezpieczeństwa, ale też systemy etyczne związane z rozwojem tej sztucznej inteligencji.

[SPEAKER_02] Jeśli trzymać się porównania do pór roku, można by powiedzieć, że do końca XX wieku panowała nie tyle zima, co epoka lodowcowa. Lody puściły dopiero, gdy wystarczająco wydajny komputer przestał być kosztownym narzędziem garstki specjalistów, a stał się tak powszechny, że każdy z nas może go wziąć do ręki w postaci smartfona. Remigiusz Franek odpowiada za tworzenie algorytmów sztucznej inteligencji w sieci Orange.

Same algorytmy były, tak? Natomiast, żeby algorytmy zaczęły działać, potrzebowaliśmy dwóch rzeczy. Po pierwsze, potrzebowaliśmy olbrzymiej ilości danych i to jest pierwsza rzecz, która się zmieniła. Ilość danych, którą w tej chwili mamy ogólnie dostępna, jest i rośnie właściwie w bardzo zatwarzającym tempie, a takie technologie jak 5G tylko ją zwiększą. A drugi aspekt jest związany z umiejętnością przetwarzania tych danych. Więc lata, bym powiedział, po 2010 roku sprawiły, że te dwie rzeczy stały się rzeczywistością. I teraz umiejętność zastosowania tych algorytmów od przetwarzania obrazu, po też przetwarzania mowy, w tym wypadku, którymi my się częściej zajmujemy, i generowania na przykład odpowiedzi dla klienta, sprawiły, że ten trend zaczął mieć konkretne zastosowania biznesowe, co widać po ruchach bardzo dużych firm i inwestycjach też, można powiedzieć, rynkowych.

Na chwilę się zastrzymajmy, bo to są bardzo istotne szczeble, które doprowadzą nas w końcu do tej definicji, tego bardzo mgławicowego pojęcia. Mówi pan o danych. Chyba chodzi nie tylko o samą ilość, ale o ich uporządkowanie, o to, że w tej chwili są zbiory danych, które mają pewne cechy, które da się bardzo łatwo posegregować, z których da się wydobyć pewne rzeczy. których do tej pory nie byliśmy w stanie wydobyć, bo nie mieliśmy właśnie tej mocy obliczeniowej.

Jeżeli chcemy wyciągać bardzo sensowne i racjonalne wnioski i prowadzić jakikolwiek biznes, to porządek musimy mieć. I to według mnie jest niezależne od ilości danych. Czy pracujemy, przypójmy, na tysiącu próbek, czy pracujemy na milionie próbek, to sposób ich uporządkowania i scharakteryzowania według mnie jest czymś stałym. To, co się zmieniło, to rzeczywiście ilość. I ta ilość wpływa bardzo mocno na to, żeby móc stosować te algorytmy, które właściwie mają sens wtedy, kiedy jest ta duża ilość danych. Tak jak byśmy powiedzieli, zastosowanie np. sieci neuronowych przy takiej bardzo małej próbce jest kompletnie niemożliwe, ale jeżeli ten zbiór zaczyna przekraczać np. 100 tysięcy sztuk, to zaczyna to mieć sens, mieć znaczenie w biznesie. Jeżeli mówimy o bardziej, jeszcze większej ilości danych, popatrzymy sobie na takie firmy jak Google, czy też przede wszystkim chińskie firmy, no to zaczynamy dostrzegać, gdzie jest ta wartość, co według mnie bardzo mocno wpływa też na naszą przyszłość, bo myślę, że nie do końca rozumiemy, w szczególności w Europie, co się zaczyna dziać.

Lawinowo rosnąca ilość dostępnych danych i ich różne rodzaje zaczęła być obrabiana dzięki lawinowo rosnącej i łatwo dostępnej mocy obliczeniowej. W efekcie zastosowania samouczących się algorytmów, w którymś momencie człowiek przestał już śledzić i rozumieć, co się z tymi danymi dzieje. Mało tego, zaczął z maszynami przegrywać. I to dosłownie. Wszyscy chyba pamiętają wyzwanie, jakie komputerowi Deep Blue rzucił mistrz szachowy Garry Kasparow. Izabela Żmudka przytacza przykład innej gry, znacznie bardziej skomplikowanej od szachów, w którą zaczęły w końcu grać same maszyny. Bo człowiek przestał się w tej grze liczyć.

Słynny pojedynek Gary'ego Kasparowa z Deep Blue polegał na tym, że za pierwszym razem to wygrał człowiek, za drugim razem wygrała maszyna, dlatego że zobaczono jakimi technikami posługują się ludzie, przeliczono to, zobaczono gdzie są słabości maszyny i w drugim rozdaniu już to było bezkonkurencyjne. Natomiast ta gra, szachy, pomimo faktu, że są ambitne, nie są aż tak ambitne, jak Go, który jest podawany jako o wiele bardziej zwielokrotnionych rozwiązaniach. I w sytuacji, gdy sądzono, że maszyna nie jest w stanie wygrać w Go, to AlphaGo udowodniło, że jest w stanie wygrać. I znowu to był taki przykład, gdzie przeciwnik, który był na początku, jeden z mistrzów, był rozczarowany, że to jest śmieszne, co ta maszyna robi. Po czym za drugim razem, można powiedzieć w nieludzki sposób, to maszyna zmiotła mistrza, dlatego że tak szybko była w stanie nauczyć się różnych rozwiązań. I teraz kolejny etap jest taki, że ponieważ już nie ma przeciwnika wśród ludzi, to powstał kolejny program AlphaGo Zero i teraz AlphaGo Zero gra z AlphaGo. Bo to już jest ten moment, że to maszyna gra z maszyną, bo to jest odpowiedni przeciwnik. Więc to tylko pokazuje, jak ta sztuczna inteligencja się rozwija i jak szybko robimy postępy.

Czy to moment, w którym sztuczna inteligencja zaczyna wymykać się jej twórcom spod kontroli? Profesor Jacek Leśkow uważa, że zanim zaczniemy się tego bać, powinniśmy sobie uświadomić podstawową prawdę cywilizacji cyfrowej, że paliwem napędzającym cyfrowe maszyny i walutą, którą płacimy za ich pomoc, stały się nasze ludzkie dane.

Słowo inteligencja to jest umiejętność percypowania i wyciągania podstawowych wniosków. To nie jest wiedza. Inteligencja to jest zdolność operacyjna i to kształtujemy. Oczywiście z czasem będziemy chcieli, żeby nasze algorytmy były też mądre. Dlaczego nie? Ale mówmy teraz precyzyjnie o tej właśnie sztucznej inteligencji. Jest niesłychanie ważny aspekt, który troszeczkę jeszcze jest chyba nie do końca uświadamiony społeczeństwom, że ta sztuczna inteligencja największe niebezpieczeństwo Nie polega na tym, że to są algorytmy może nieprecyzyjne, czy może na wczesnym etapie, czy może te algorytmy wyprą nas z miejsc pracy, a my tam, nie wiem, będziemy na wiecznej emeryturze. Proszę Państwa, nie tutaj leży problem. Algorytmy sztucznej inteligencji działają tylko wtedy dobrze, jeżeli są trenowane na odpowiednich zbiorach danych. Musimy sobie uświadomić, że naszą główną jakby strukturą własności wobec naszej cywilizacji są nasze dane. Podstawowym procesem cywilizacji cyfrowej jest właśnie transakcja danymi.

Praca algorytmów daje tym lepsze efekty, im więcej mają danych. Ale skąd je wziąć, gdy na świecie tyle się mówi o bezpieczeństwie i ochronie danych? To my sami zasilamy systemy gromadzenia i obróbki informacji. Czasem dobrowolnie, czasem nieświadomie, częściej tę świadomość wypierając w imię wygody. Jedno kliknięcie i mamy jakąś usługę czy rzecz. a jednocześnie cały ogrom wiedzy o naszym zachowaniu, kontaktach, transakcjach czy sposobie spędzania wolnego czasu płynie gdzieś tam w cyberprzestrzeń. Tak to działa, bo według Remigiusza Franka właśnie o dane toczy się w tej chwili światowa wojna.

Najlepsze firmy, które są rzeczywiście na rynku, co jest ich celem? Ich celem jest przewidywanie naszych zachowań. Im więcej mam danych na temat konkretnych osób, konkretnych ich zachowań w różnych rynkach, w różnych sytuacjach, tym lepiej mogę przewidywać i zawężenie danych do jednego obszaru jest niewystarczające. Dlatego to co widzimy, że właściwie te największe firmy mówią tak, ja bym chciał te dane i te dane i te dane, dla mnie nie ma znaczenia. czy to jest rynek bankowy, czy to jest ubezpieczeniowy, czy to jest rynek FMCG. To są dane, które pozwalają mi zbudować model, który umożliwia przewidywanie zachowań konsumenckich. I to jest to, o co w tej chwili się toczy gra, po to, żeby zbudować lepszy produkt, który będzie miał lepszą skuteczność w działaniu.

Bez danych systemy sztucznej inteligencji po prostu nie zadziałają. I w tym być może tkwi jeszcze nasza przewaga nad systemem. Prawniczka Katarzyna Szymielewicz jest znaną działaczką na rzecz ochrony prywatności i danych osobowych. Na razie nie boi się, że sztuczna inteligencja zdobędzie nad człowiekiem władzę.

[SPEAKER_04] Jaki rodzaj władzy rzeczywiście możemy sobie wyobrazić, że działa na zasadzie w pełni zautomatyzowanego procesu? Jakie dane musiałyby się w tym systemie znaleźć?

Nawet gdybyśmy podpięli swoje mózgi, ciała, wszystko co produkujemy, procesy biochemiczne, pod system, który uczy się, obserwuje je bez przerwy i ma za zadanie nas zoptymalizować, ma za zadanie nas zautomatyzować. Pytanie, czy taki system byłby w stanie rzeczywiście wytworzyć bodźce, motywatory, które pokrywają pełne z pewnością naszych potrzeb. Jako ludzie nie jesteśmy ani w pełni racjonalni, ani w pełni przewidywalni. Mamy też, mam nadzieję, cały czas jakieś duchowe czy takie transcendentne bardziej potrzeby, pomysły na siebie.

Po drugie, ważniejsze sądzę, że musiałaby być to jednak nasza decyzja. tych kilku firm przynajmniej lub nasza społeczna, żeby iść tą drogą, to znaczy żeby podpiąć się pod taki matrix, pod taki system, który ma nas w pełni obserwować i w pełni optymalizować. Byłaby to jednak forma opresji. Głęboko wierzę, że ludzie odebraliby to jako spełnienie pewnej dystopii i na to by się nie zgodzili ani jako konsumenci, ani jako obywatele.

Na temat samych algorytmów. One są doskonałe w wykrywaniu wzorców. Do tego właśnie nam służą. Do tego, żeby porządkować dane, żeby przetwarzać ich ogromne ilości i wykrywać pewne tendencje, trendy czy podobieństwa. I to jest świetne. Korzystajmy z tego. To jest statystyka. To są lepsze Excele. To są świetne maszyny, które uczą się obrazu i go przetwarzają. Ale dlaczego mielibyśmy w ten proces wkładać miękkie decyzje, które wymagają zupełnie innych zdolności, które trudno przypisać maszynie?

Dane i narzędzia do ich obróbki, w cyfrowym świecie nazywane algorytmami, decydują kto ma władzę w cyfrowej cywilizacji. Nad oboma obszarami jeszcze mamy kontrolę, przynajmniej tak nam się wydaje. Z czasem będziemy musieli jednak zadać sobie pytanie, bać się czy nie bać, trochę ustąpić, mówi Magdalena Wrzosek, specjalistka od cyberbezpieczeństwa z NASK-u.

Pytanie na ile my jesteśmy na niego gotowi społecznie, bo to jest też wyzwanie społeczne. Tak na ile jesteśmy gotowi na taką sytuację, że na przykład w restauracji będzie nas obsługiwał robot albo pójdziemy do lekarza i pierwszym kontaktem nie będzie pani na recepcji, ale też jakiś robot, który postawi wstępną diagnozę.

Ale przecież jesteśmy całkowicie przygotowani na to. Wręcz oczekujemy, że słownik w telefonie podpowiada nam słowa.

No tak, tylko że wydaje mi się, że my jakby swój telefon traktujemy jako takie przedłużenie siebie, swojej ręki, swojej książeczki adresowej. To nie jest postrzegane na takiej zasadzie, że to jest ciało obce. Ten telefon na tyle stał się elementem naszego życia, że nie mamy nic przeciwko temu, że możemy zapytać telefonu o coś i on nam się odpowie i to jest super. Natomiast zupełnie inną kategorią są maszyny, które mają nam pomagać. I teraz jeżeli np. wyobrazimy sobie sytuację, że faktycznie jakąś część diagnostyki w medycynie miałby dokonywać robot, no to to jest pytanie, na ile my społecznie i psychicznie w ogóle, tak psychologicznie jako społeczeństwo i ludzkość jesteśmy gotowi na coś takiego.

Czy jesteśmy na to gotowi? Może powinniśmy. Sztuczna inteligencja może nam pomóc załatwić sprawę u operatora sieci telefonicznej w urzędzie i u lekarza. Ucząca się maszyna szybciej od człowieka zorientuje się, że z naszym ciałem dzieje się coś niedobrego, że łamiemy przepisy drogowe, albo że na codzienne i specjalne zakupy możemy wydawać mniej. Są Państwo ciekawi jak? Opowiem o tym już niedługo.

Hinter sp. z o.o.
wpisana do Krajowego Rejestru Sądowego
Kapitał zakładowy 10 000,00 ZŁ
NIP: 7162827816 | KRS: 0000812678
Adres:
Ignacego Mościckiego 1
24-110 Puławy

kontakt: hello@transkryptomat.pl

Treści