Publikacja festiwalowa

SPIS TREŚCI

1.    Cywilizacja Algorytmów
The Civilization of Algorithms
2.    Rozszerzone społeczeństwo
An Augmented Society
3.    Na co pozwolimy sztucznej inteligencji
To What Extent Will We Allow Artificial Intelligence
4.    Technologie realne i wyobrażone
Real and Imagined Technologies
5.    Nadchodzi społeczeństwo hybrydowe
The Hybrid Society is Coming
6.    Komputer jest wzmacniaczem moich możliwości
The Computer is an Amplifier of my Capabilities


 
Wiktor Gajewski
CYWILIZACJA ALGORYTMÓW

Dlaczego sztuczna inteligencja nie ma włosów? Obrazki, które proponują wyszukiwarki internetowe w odpowiedzi na hasło „AI”, to łyse roboty z błyszczącego plastiku, narysowane tak, by maska twarzy odsłaniała czaszkę wypełnioną elektroniką. Albo sylwetki, przeważnie kobiece, utworzone z wodospadu cyfr – zaszczepiona w naszej zbiorowej wyobraźni przez „Matrix” klisza. Tylko kolor się zmienił – teraz obowiązkową barwą innowacji jest niebieski. Ava, z filmu „Ex Machina” Alexa Garlanda, przywdziewa perukę dopiero w ostatnich minutach filmu, w geście domknięcia procesu swojej emancypacji. W tym świetle uważam, że Google zachowało się głęboko złośliwie, wybierając na demonstrację siły swojego asystenta głosowego Duplex właśnie zadanie umówienia wizyty u fryzjera…

Odkładając na bok żarty, rzeczywiście jesteśmy w momencie, kiedy rozwój technologii wymaga przeformatowania naszej wyobraźni. Nieaktualne stają się obrazy, które kultura dostarczała nam od zarania naszej cywilizacji. Sztuczna Inteligencja nie stanie przed nami jako Galatea, wyrzeźbiona z kości słoniowej żona Pigmaliona, gliniany Golem, drewniany Pinokio czy blaszany strach na wróble z Krainy Oz lub C-3PO z odległej galaktyki. Ludzkie ciało jako interfejs dla myślącego algorytmu może stać się tylko fanaberią lub fetyszem. Prędzej – i to już się dzieje – z cyfrową inteligencją spotkamy się w samochodzie, wojskowym dronie, w gabinecie lekarza albo biurze ubezpieczyciela.  Podobnie jak natykamy się na nią, korzystając z zegarka, pralki, żarówki, telewizora czy telefonu. Żyjemy u progu Cywilizacji Algorytmów, świata, który kształtujemy na równi z coraz bardziej zaawansowanymi technologiami cyfrowymi.

Termin Sztuczna Inteligencja jest parasolem określającym wiele z nich. Nauczyliśmy się uczyć programy, tak by same podejmowały decyzje i rozwijały swój kod, żywiąc się ogromem danych, które generujemy w cyfrowym świecie. Dajemy im oczy lidarów, uszy mikrofonów i usta głośników. Kolejne programy wspierają nas lub zastępują w codziennych wyborach – następny serial, następna piosenka, następny prezydent – dopasowanych do naszych „polubień” w sieci. Ufnie rozmawiamy z wirtualnymi asystentami, powierzając im być może więcej niż człowiekowi. Pozwalamy im czytać nasze maile, nasze twarze, nasz puls. Jednocześnie – sam jestem tego świetnym przykładem – coraz mniej wiemy o tym, co dzieje się „w środku” urządzeń i aplikacji usługowych, którymi tak chętnie się otaczamy. Zyskujemy poczucie komfortu, ale czy nie tracimy poczucia sprawczości?

Festiwal Przemiany może pomóc Wam odpowiedzieć sobie na to i inne kluczowe pytania. Czyje interesy wspiera Sztuczna Inteligencja? Na ile uczące się algorytmy przejmują wartości i uprzedzenia tych, którzy je szkolą? Czy poradzimy sobie w świecie, w którym roboty i programy przejmą część naszej zawodowej pracy? Jak powinniśmy dbać o nasze międzyludzkie relacje, jeśli tworzymy je, głównie posługując się własnymi wirtualnymi awatarami w społecznościowych aplikacjach?

Zapraszamy Was, byście w ciągu tych kilku dni nie tylko dowiedzieli się czegoś więcej o nowych technologiach, ale i zabrali głos w tej niezwykle skomplikowanej debacie. Chcemy połączył wiedzę ekspertów z Waszą osobistą perspektywą. Technologia rozwijana przez specjalistów odbija się błyskawicznie na naszym życiu. Powinniśmy umieć prowadzić dialog, konfrontować nasze wartości i oczekiwania wobec przyszłości świata. Temu służyć będzie debata festiwalowa, gdzie poprosimy Was o weryfikację eksperckich wizji rozwoju sztucznej inteligencji i jego wpływu na kształt społeczeństwa. Podczas wykładów i paneli będziecie mogli wprost zadać pytania specjalistom zajmującym się AI zarówno w wymiarze technicznym, jak i etycznym. Wizyta na wystawie „Machina Sapiens”, gdzie zobaczycie projekty artystów i projektantów z całego świata, otworzy Was na nowe pomysły i pobudzi Waszą wyobraźnię. Spotkacie również przedsiębiorców i innowatorów, którzy wprowadzają rozwiązania sztucznej inteligencji w życie. Ale to Wy jesteście Bohaterami Przemian – od Waszej kreatywności, odwagi i otwartości zależy sukces Festiwalu. Zadawajcie pytania, nawet te pozornie niemądre, jak o fryzury sztucznej inteligencji. Nie mogę się doczekać rozmowy z Wami.

 
Aleksandra Przegalinska
ROZSZERZONE SPOŁECZEŃSTWO

Lata 2017 oraz 2018 dla szerokiej dziedziny, jaką bez wątpienia jest dzisiaj sztuczna inteligencja (w jej skład wchodzi chociażby robotyka, uczenie maszynowe wielu typów, przetwarzanie języka czy widzenie maszynowe) okazały się przełomowe. Stworzony przez firmę DeepMind program Alpha Go najpierw pokonał 4:1 mistrza gry w tradycyjną chińską grę strategiczną Go Lee Sedola, chociaż sama gra uznawana była dotychczas za „niealgorytmizowalną”. Następnie sam padł w boju przeciw samemu sobie w wersji ulepszonej (Alpha Go vs. Alpha Go Zero), wskazując tym samym nowe możliwości gry w Go, nieeksplorowane dotąd przez człowieka.
Również w 2017 humanoidalna robotka Sophia objechała świat jako konferencyjna panelistka, przyzwyczajając ludzi do widoku humanoida w roli prelegenta i, co więcej, otrzymała obywatelstwo Arabii Saudyjskiej. Do dzisiaj nie wiemy, co to tak naprawdę znaczy w jej przypadku oraz jakie prawa i obowiązki z tego dla niej wynikły.  Jakby tego było mało, niewiele brakowało, program Open AI, współfinansowany przez Elona Muska wygrałby miażdżąco w popularną grę video Dota 2 z ludzkimi zawodnikami.

W roku 2017 wydarzyła się jeszcze jedna, arcyciekawa rzecz. Media społecznościowe obiegła elektryzująca, ale i przerażająca wiadomość. W eksperymencie działu badan i rozwoju Facebooka boty, które miały uczyć się negocjacji w języku angielskim, by osiągnąć jak największe korzyści z wymiany dóbr, „wymknęły się spod kontroli” (samo to określenie jest ciekawe i ilustruje nasz głęboko powikłany stosunek do zaawansowanych technologii) i wytworzyły własny język (a raczej meta-kod), po czym zaczęły komunikować się bez ludzkiej ingerencji. Warto wrócić do tej szczególnej sytuacji i przypomnieć sobie wtedy dialog, który na ludzkie polecenie ale bez ludzkiego nadzoru nawiązały wtedy boty umownie nazwane Alice i Bob:

Bob: i can i i everything else … … … … . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else … … … … . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else … … … … . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i … … … … … … .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else … … … … . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else … … … … . .
Alice: balls have zero to me to me to me to me to me to me to me to me to

Brzmi jak nieporozumienie? Wprawne (nawet ludzkie) oko dostrzeże jednak swoista logikę tych wymian i fakt, ze wyraźnie do czegoś prowadzą. Nie są bezsensowne. Wręcz przeciwnie: służą optymalizacji precyzyjnej wymiany dóbr. I ta nowa mowa (miejmy jednak nadzieję, że nie „nowomowa”), która jest „nieludzka” (non-human), jest czymś  do czego być może przyjdzie nam się przyzwyczaić. Podobnie jak do nowych porządków, zaprowadzanych przez wysokie technologie w rozmaitych, dotąd zarządzanych przez ludzi przestrzeniach.

Jak pokazuje przykład gry Go, to co dzisiaj nie jest algorytmizowalne, może okazać się takie jutro. Wzmiankowany powyżej Elon Musk już w drugiej połowie 2018 roku ogłosił rychłą realizacje projektu Neuralink, pierwszego kompletnego interfejsu mozg-maszyna w postaci urządzenia wielkości mikrometra, które byłoby chirurgicznie implantowane do mózgu. Według Muska taka technologia daje szanse na to, by technologicznie wzmocnieni ludzie wygrywali jednak z Alpha Go Zero i kolejnymi jeszcze bardziej zaawansowanymi projektami.

Czy tego – na poziomie indywidualnym i zbiorowym – chcemy czy nie, w naszym społeczeństwie, a zwłaszcza  w jego wydaniu online pojawiają się nowe podmioty, które niegdyś były w dosyć jednoznacznie sposób klasyfikowane jako przedmioty. Również o tym opowiada niniejsza książka. „Cywilizacja Algorytmów” to swoista próba podsumowania tego burzliwego okresu i sięgnięcia naprzód – ku temu, co świta na horyzoncie. Wobec wszystkich możliwych scenariuszy dalszego rozwoju technologicznego pozostaje życzyć sobie, by technologiczne rozszerzenie (technological augmentation) nie było poszerzeniem pola walki, tylko rozwinięciem wachlarza najlepszych praktyk współdziałania ludzi ze sobą nawzajem oraz ze sztuczna inteligencja. Żeby tak się działo, technologia musi stać się maksymalnie inkluzywna, przystępna i wyjaśnialna.

 
Luciano Floridi
Na ile pozwolimy sztucznej inteligencji ?

Adam Mandziejewski: Niedawno wirtualny asystent Google Duplex okazał się zdolny zadzwonić i umówić swojemu właścicielowi wizytę u fryzjera. Dla mnie to niesamowite. Mógłby się Pan podzielić swoim zdaniem na temat rozwoju sztucznej inteligencji? Dokąd ona zmierza i co nas tam czeka?

Luciano Floridi: Zawsze trudno zgadywać, co nas czeka w przyszłości. Z AI jest tym trudniej, że już tak wiele obietnic się nie spełniło, że musimy uważać, by znów nie przesadzić z entuzjazmem. Czasami obawiam się, że powstała swoista bańka sztucznej inteligencji, w której bardzo wiele spodziewamy się po tej technologii. Ale już widać kilka zjawisk na horyzoncie oraz ileś rzeczy, których możemy się nauczyć z przeszłości. Może od tych zacznijmy.

Musimy zwrócić uwagę na to, gdzie technologia – jakakolwiek – może pomóc osiągnąć coś naprawdę istotnego. Może to zabrzmi głupio, ale czasami spekulujemy, czy technologia jest w stanie osiągnąć to czy tamto, a tak naprawdę jej nie potrzebujemy albo nie jest ona dla nikogo istotna. W domu mam starą, zepsutą maszynę do prażenia kukurydzy i nie kupiłem nowej, bo tak naprawdę nie jest mi potrzebna. Ale mam też toster, z którego korzystam regularnie i jeżeli się zepsuje, natychmiast kupię nowy. Czyli pierwszym kryterium oceny sukcesu sztucznej inteligencji powinno być nie to, gdzie można ją zastosować, bo możliwości są praktycznie nieograniczone, tylko trzeba się zastanowić, czy taki system AI jest warty tego, by kupić go ponownie. W razie awarii natychmiast kupiłbym lodówkę, tak samo zmywarkę. Ale maszynę do popcornu? W przypadku AI istnieją zasadnicze funkcje, dla których na pewno będziemy chcieli coś „kupić” ponownie. Chociażby ułatwienia w jeździe samochodem. Łatwiejsze zakupy dzięki podpowiedziom. Lepsze zabezpieczenie kart kredytowych dzięki technologii rozpoznawania wzorców. Ulepszony interfejs dla zdjęć, filmów i komunikacji społecznościowej – wszystko dzięki sztucznej inteligencji. Obszary, w których możemy się spodziewać znacznego wpływu AI i gdzie już dokonuje się rozwój, są dokładnie takie, jak można się spodziewać, bo one zawsze znajdują się w awangardzie. Obronność i bezpieczeństwo zawsze napędzały postępy technologiczne. Podobnie opieka zdrowotna – tam jest zainteresowanie i dostępne są fundusze. Są jeszcze dwie ogromne i dość oczywiste dziedziny: biznes oraz – gdzie może nawet nastąpić to szybciej i w większym stopniu – rozrywka. Gry komputerowe, video streaming, cała branża mediów społecznościowych – to miejsce, na które sztuczna inteligencja będzie wpływała coraz silniej. Ale we wszystkich wymienionych obszarach powinniśmy przestać myśleć w sposób podpowiadany przez filmy s.f., w których roboty tylko czekają, żeby powitać nas po powrocie do domu. Już w tej chwili korzystamy z wielu rozwiązań opartych na AI, w najróżniejszych momentach naszego życia. Gdyby zapytać człowieka na ulicy, czy korzystał kiedyś ze sztucznej inteligencji, prawdopodobnie odpowie, że nie. Ale jeśli zapytamy, czy robił zdjęcia smartfonem, odpowiedź będzie brzmiała: „oczywiście!”. A tam też jest element AI. Gdyby zapytać, czy kupował coś w sieci i otrzymał rekomendacje, odpowiedź też będzie twierdząca. To również sztuczna inteligencja. Kto nie ma Netfliksa? A jak inaczej zgaduje się nasz gust niż właśnie z udziałem AI? To bardzo prosta forma sztucznej inteligencji, gdzie używamy technologii cyfrowej do uczenia się z danych i podejmowania decyzji lub autonomicznego przetwarzania większych ilości danych, żeby ułatwiać inne procesy. Dlatego myślę, że coraz więcej technologii AI będzie niewidocznie przenikać nasz świat.

Myślę, że przy szerokim zastosowaniu AI, o którym Pan mówił, istnieje teraz coś więcej niż tylko bańka: rządy narodowe i międzynarodowe organizacje opracowują strategie rozwoju AI na bardzo wielu różnych płaszczyznach. Wiem, że współpracował Pan z Komisją Europejską, udzielając rekomendacji dla AI. Mógłby Pan opowiedzieć o tym procesie?

Najpierw chciałbym uściślić, że wcale nie uważam, żebyśmy mieli do czynienia z bańką. Nie sądzę też, że będziemy całkowicie rozczarowani rozwiązaniami, które AI będzie zdolna nam dostarczyć. Mówię tylko, że powinniśmy zwrócić uwagę na to, jak jest reklamowana – sprawia się wrażenie, jakby sztuczna inteligencja miała być cudownym panaceum na wszystkie bolączki. A istnieje rozdźwięk pomiędzy tym, co jest osiągalne i co zrobimy, a tym, czego oczekujemy i na co mamy nadzieję. Wierzę jednak, tak samo jak wszyscy wokół mnie, że to się ziści. Od niektórych rozwiązań już nie odstąpimy.

I właśnie dlatego, że AI ma taki przemożny wpływ, tak bardzo się rozprzestrzeniła i będzie zmieniać tak wiele dziedzin, dobrze byłoby mieć do dyspozycji jakieś ramy normatywne i etykę sztucznej inteligencji. Nie chodzi tylko o wyliczenie, co wolno, a czego nie wolno, bo to nie jest kwestia ograniczeń. Chodzi również o otwieranie nowych możliwości. Proszę sobie wyobrazić firmę, która nie korzysta ze sztucznej inteligencji do poprawy kondycji finansowej swoich klientów, bo obawia się wykonania złego ruchu, negatywnej reakcji lub niepochlebnych nagłówków w prasie. A przecież chodzi o możliwości ulepszenia usług finansowych dla rzeszy ludzi, więc takie wahanie nie powinno się zdarzać. Nasze prace będą prowadzone głównie na poziomie europejskim, istotnym dla wszystkich krajów członkowskich, ale ich efekty można przenieść w inne konteksty – do USA, Japonii, Brazylii, Chin, a także do Wielkiej Brytanii (zależnie od tego, jak potoczy się Brexit). I mam nadzieję¸ że udadzą nam się dwie rzeczy. Po pierwsze, ustalimy jasne granice tego, co powinno być zabronione – tak jak w rolnictwie, przemyśle motoryzacyjnym czy wydobywczym. Prawdziwe czerwone linie, których nigdy nie wolno przekraczać. Po drugie, postaramy się, by wszyscy zrozumieli, kiedy na pewne działania rozwijające pole AI trzeba się zdecydować i że sposobności należy wykorzystywać, bo – jak dobrze wiem jako były katolik – zaniechanie jest grzechem na równi z czynieniem zła. A w przypadku sztucznej inteligencji jest wiele możliwości, których nie powinniśmy przeoczyć.

Powstają zatem ramy dla rozwoju sztucznej inteligencji. Ale może przejdźmy do osobistej i społecznej sprawczości w przypadku współpracy z AI, co już się dokonuje. W Pana badaniach pojawia się pojęcie koperty – o co w nim chodzi?

Ważne jest, by zrozumieć, dlaczego sztuczna inteligencja obecnie sprawdza się tak dobrze – inaczej niż w przeszłości. Istnieje wiele czynników, w tym fakt, że nie mówimy już o symbolicznym wymiarze AI, pracujemy też z sieciami neuronowymi i uczeniem głębokim. Ale jednym z czynników determinujących to, że AI czy cyfrowa technologia w ogóle sprawdzają się lepiej, jest istnienie przyjaznego im środowiska. Autonomiczne samochody bez kierowców działają dobrze, bo istnieją czujniki, mapy, satelity – cały świat jest przyjazny technologii IT. Kiedy w przemyśle wprowadzamy w danym środowisku robota, mówimy o fizycznej, trójwymiarowej przestrzeni, w której operuje on z powodzeniem, jako o kopercie tego robota. Przykładowo, niech robot musi pomalować samochód – przestrzeń, w której pracuje, malując konkretny model, to koperta. Od niedawna popularyzuję przekonanie, że w miarę postępującej cyfryzacji świata – miliardów obrazów w sieci, map, sensorów, ludzi stale podłączonych do sieci, Internetu Rzeczy itd. – świat staje się coraz większą kopertą, wewnątrz której operuje sztuczna inteligencja. Można powiedzieć, że to nie AI dobrze sobie radzi ze światem, tylko świat stał się łatwo dostępny i przyjazny aplikacjom AI. Na przykład rozpoznawanie twarzy i obrazów jest możliwe dzięki dziesiątkom tysięcy zdjęć kotów w sieci, na których można wytrenować dane oprogramowanie. Bez tego bogactwa obrazów niewiele można by z takim oprogramowaniem zrobić.

Czy dlatego owa koperta nie jest zbudowana wyłącznie ze sprzętu, z zasad i polityk, ale również z ludzkich działań w cyfrowym świecie, z naszych rekomendacji i opinii?

Dokładnie tak. W przeszłości jednym z celów było powołanie sztucznej inteligencji zdolnej tłumaczyć na wiele języków. Dopóki próbowaliśmy to zrobić tak, jak zrobiłby to dwujęzyczny człowiek, odnosiliśmy same porażki. A teraz, korzystając z Google Translatora, który radzi sobie całkiem nieźle, zwłaszcza z tekstami w oficjalnym języku, bez slangu i regionalizmów, można przekonać się, że to działa. I musiało zadziałać ze względu na ogromną ilość tekstów dostępnych w sieci w formie cyfrowej. Musimy sobie uświadomić, że to również my, nasze zachowanie coraz bardziej się cyfryzujemy. Dlatego czasami mówię o życiu „on-life”, bo nasza egzystencja nie toczy się ani zupełnie offline, ani wyłącznie online, a gdzieś pomiędzy. Jesteśmy jednocześnie analogowi i cyfrowi i w tej infosferze technologia cyfrowa działa znakomicie.

To również zmienia nasze podejście do towarów dostępnych na rynku. Nie jesteśmy tylko konsumentami technologii czy aplikacji opartych na AI, ale stanowimy dla nich źródło danych, dajemy im władzę dzięki informacjom o tym, gdzie lubimy bywać, na co lubimy wydawać pieniądze. Czy to nie zmienia pojęcia wolnorynkowego konsumenta?

I to bardzo. Kiedyś wyglądało to tak: kiedy moi dziadkowie szli po zakupy, lokalny sklepikarz znał ich i ich zwyczaje – wiedział, co zwykli kupować w poniedziałki, czego nie kupowali we wtorki. To była ludzka wiedza. Potem próbowaliśmy ten proces zautomatyzować. Nastąpiła era ulotek w skrzynkach pocztowych, które w ogóle się nie sprawdzały, bo proces polegał na domyślaniu się, co może spodobać się w wysłanym katalogu milionom ludzi. Dzisiaj mamy znacznie bardziej indywidualne podejście, bo jesteśmy pierwszym pokoleniem, które na taką skalę dobrowolnie dzieli się swoimi danymi. Czyli wszyscy wiedzą, jaki samochód ci się podoba, jakie sporty lubisz, jaką parę butów sobie kupujesz, jakie wieści na portalach społecznościowych przypadły ci do gustu, której drużynie piłkarskiej kibicujesz. Taki profil staje się niezwykle cenny dla dowolnej technologii, która może go wykorzystać do opracowania rekomendacji, sugestii, reklam. A więc jako pierwsi umieściliśmy się w tej infosferze jako cyfrowe byty i jesteśmy „odczytywani” przez technologię niczym cyfrowe książki.

Mówi się, że AI naprawdę zmienia sposób, w jaki żyjemy. A jak sztuczna inteligencja oraz technologie informatyczne i komunikacyjne wpływają na Pana pracę? Jest Pan i filozofem, i pedagogiem. Czym jest AI dla Pana?

Ponieważ jestem dość stary, dorastałem z filozofią opartą na dawnej koncepcji AI, tej logicznej, zbudowanej na linijkach kodu i symbolicznej. Sieci neuronowe były dostępne od bardzo dawna i omawiało się je w świecie akademickim, ale nie były popularnym narzędziem wykorzystywanym przez firmy i rządy. To było dla mnie źródło intelektualnych wyzwań, bo zawsze postrzegałem AI jako formę sprawczości różną od ludzkiej czy zwierzęcej. Nie jest to forma biologiczna, jak w przypadku mojego psa, i nie jest ludzka, jak u moich przyjaciół, u mnie czy mojej żony. Nie jest to nawet firmowa sprawczość instytucji, w której ludzie współpracują w ramach zespołu, jak drużyna sportowa. To rozszerza nasze pojęcie tego, co oznacza bycie agentem (posiadanie zdolności sprawczej). Ale podkreślam, nie ma w tym żadnej fantastyki naukowej, nie mówię o Robocopie czy Terminatorze. To pozostawiam zainteresowanym błahymi rozważaniami. Ja mówię o rzeczywistej zdolności do interakcji ze światem, do zmiany tej interakcji przez przekształcanie danych w nowych procesach i strategiach, a przez to uczenie się, w sensie maszynowym, od świata. Jeśli weźmiemy te trzy elementy: autonomię, interakcję i uczenie się, a będziemy pamiętać, że mamy technologię, która zawiera je w takim codziennym sensie – bez science fiction, jak powiedzmy robot, który zajmuje się koszeniem trawnika – to pojawi się możliwość filozoficznego podważenia wielu istniejących od dawna idei. Odpowiedzialność: jak chcemy, żeby wyglądały nasze interakcje z tą nową formą agenta? Jakie obowiązki i sfery życia chcemy mu przekazać, a co chcemy zachować dla siebie? Kontrola: jak zaangażować takich agentów w służbę wspólnemu dobru? To są wszystko fundamentalne pytania, które zadajemy sobie od czasów greckich filozofów, ale teraz zyskują nowe oblicze – bo na naszej szachownicy pojawiła się nowa figura. Nawet jeśli uważam ją za niewielką, to jest już zupełnie inna gra. Dlatego filozofia musi się obecnie zmierzyć z rewolucją cyfrową w ogóle i sztuczną inteligencją w szczególe.

Właściwie opisał Pan miejsce i rolę dotąd zarezerwowaną dla istoty ludzkiej.

Chodzi o sprawczość? Tak i nie. Tak, bo kiedy nie mieliśmy robotów, AI i technologii, musieliśmy wszystko robić sami. Kiedy spojrzymy na opis niewolników u Arystotelesa, wystarczy tylko zastąpić słowo „niewolnik” słowem „robot” i wszystko pasuje. Kiedy nie mieliśmy robotów, wykorzystywaliśmy siebie nawzajem. Potem używaliśmy zwierząt, energii wiatru i wody, w końcu silników i elektryczności. Dzisiaj mamy coś lepszego, zdolnego wykonać te same zadania, a nawet wiele innych. Mam nadzieję, że okażemy się odpowiednimi agentami do kontrolowania tego rodzaju sprawczości, bo wierzę, że ostatecznie jest to kwestia ludzkich wyborów i decyzji. Nie chodzi o to, kto czym się zajmuje, ale kto decyduje o tym, co i czy należy zrobić. Niech przykładem znów będzie robot do koszenia trawy. Jest to zadanie, które trzeba wykonać. Ale kiedy i w jaki sposób? Czy to odpowiednia pora? Może nie dzisiaj, bo robot hałasuje, a ja nie chcę przeszkadzać sąsiadom? To moje zadanie, moja decyzja, moje wybory.

Ja tu widzę o wiele więcej władzy, decyzji i wyborów w ludzkich rękach, a za tym idą etyka i polityka. Ile gwoździ trzeba wbić w daną deskę? Nie mam nic przeciwko, żeby robot zrobił to za mnie, ale decyzja, czy te gwoździe trzeba tam wbić, to już moja rola. W moim odczuciu AI zwiększa brzemię kontroli, którą sprawujemy, i odpowiedzialności za kontrolowanie tej nowej technologii. Ludzka inteligencja jest jeszcze bardziej, a nie mniej konieczna. Jest nawet ważniejsza w zakresie decydowania, planowania i strategii. Jeszcze jedna analogia: w kuchni stoi zmywarka. Ale które do niej trafią? Filiżanka po mojej babci? Nie, bo jest zbyt cenna i nie chcę, żeby coś jej się stało. Ile dodać detergentu i kiedy, czy zmywanie jest skończone, czy urządzenie działa jak należy, czy jest popsute, kiedy je wymienić – to wszystko moje decyzje. Mówicie, że przecież nie muszę już zmywać? To prawda i bardzo mnie to cieszy! Ale kto zarządza zmywarką?

Czy AI może nam umożliwić większą empatię w stosunku do naszego otoczenia i w relacjach społecznych?

Bardzo dobre pytanie. Myślę, że sprawy mogą się potoczyć bardzo różnie. Mam nadzieję, że zwiększy się empatia, ale kto wie? Podczas niedawnych wyborów we Włoszech zgłosiłem otwartą sugestię dla nowego rządu, by zielone technologie i wartości ekologiczne zaczęły iść ręka w rękę z niebieskimi, czyli cyfrowymi technologiami i wartościami innowacyjnymi. Te wartości mogą ze sobą współgrać. Liczę, że kiedy tak się stanie, będziemy utrzymywać bardziej inteligentne, ludzkie i empatyczne relacje ze sobą nawzajem, z naturą, ze światem stworzonym przez człowieka. Ale powinniśmy zacząć ciężko pracować na osiągnięcie tego celu.

W ramach podsumowania teraz ja chciałbym zadać pytanie: jeśli połączymy wszystkie omawiane przez nas elementy: technologię cyfrową, sztuczną inteligencję, rozwój nowych form agentów, to co otrzymamy? Ludzie myślą, że wyzwanie tkwi w cyfrowych innowacjach, ale problem polega na zarządzaniu cyfrowym światem. I to, co z tym zrobimy. Każda firma może kupić start-up, każdy może zatrudnić trzy fantastyczne osoby i założyć małą firmę, być może także stworzyć jakieś świetne gadżety itp. Ale sedno problemów, jakie się przed nami rysują, dotyczy tego, jaki projekt chcemy w tym momencie wybrać. Można to podsumować w dwóch punktach. Pierwszy: naszym aktualnym wyzwaniem nie jest innowacja cyfrowa jako taka, ale zarządzanie tym, co cyfrowe. Drugi: żeby tego dokonać, potrzebujemy kilku projektów, których jeszcze nie mamy. Choćby na gruncie europejskim funkcjonujemy, opierając się na starym programie odziedziczonym i kontynuowanym od czasów drugiej wojny światowej. A jaką przyszłość chcemy zbudować? Jeśli nie mamy ludzkiego projektu, to zarządzanie cyfrowym światem staje się trudniejsze, innowacje, do których dążymy, robią się nieco bardziej skomplikowane, bo zasadniczo poruszamy się po omacku. Wyznaczony kierunek oznacza konieczną i zasadniczą rolę polityki. Przez duże „P”, prawdziwego planowania i przemyślenia tego, w jakiej przyszłości chcemy żyć. Myślę, że Europa, jeśli tylko zechce, może odegrać dużą rolę i mimo wszystkich jej ograniczeń, mam bardzo proeuropejskie nastawienie. I mam nadzieję, że to nastąpi.

Myślę, że to idealne podsumowanie i dobry moment na zakończenie naszej rozmowy. Serdecznie dziękuję.

Prof. Luciano Floridi wykłada filozofię informacji na Oxford University. Jest autorem książek: Augmented Intelligence – A Guide to IT for Philosophers, Philosophy and Computing: An Introduction oraz Internet – An Epistemological Essay.

 
JEAN-GABRIEL GANASCIA
Technologie realne i wyobrażone

ALEKSANDRA PRZEGALIŃSKA: Na jakim etapie znajdują się prace nad sztuczną inteligencją? To wciąż początki czy zbliżamy się do przełomu?

JEAN-GABRIEL GANASCIA: Nie ma łatwej odpowiedzi na to pytanie. Na każdym kroku widzimy niezwykły rozwój sztucznych inteligencji, a ich rosnąca moc obliczeniowa umożliwia kolejne praktyczne zastosowanie w naszym życiu. I to będzie postępować. Świat się zmienia, a wraz z nim sztuczna inteligencja. To od niej w dużej mierze uzależniony jest dalszy rozwój społeczny, z czego ludzie zwykle nie zdają sobie sprawy. Dobrym przykładem może być internet, ale też użyteczna w telefonach funkcja rozpoznawania twarzy lub odcisku palca – to wszystko AI. Rownież programowanie przy użyciu inteligentnych technik jest coraz częstsze. Choć nie zawsze widać to na pierwszy rzut oka, sztuczne inteligencje zmieniają nasz świat. Nasze społeczeństwo jest cyfrowe i uzależnione od przepływu informacji, a dane generowane przez czynniki pozaludzkie mogą być analizowane tylko przez pozaludzkie techniki. Żyjemy w społeczeństwie informacyjnym, gdzie liczy się umiejętność wyłapywania pogłosek, żeby przewidywać przyszłość. Osoby zajmujące się oprogramowaniem rozumieją ogromną rolę feedbacku w tworzeniu produktu. A jeszcze w połowie lat 90. nikt nie wiedział, jak ma wyglądać model ekonomiczny internetu. Zwłaszcza w USA, gdzie ludzie byli bardzo podekscytowani ideą sieci, ale nikt nie wiedział, jak na tym zarabiać.

AP: Cała idea była na początku tworzona w hippisowskim duchu. Technologie i panujący w Kalifornii klimat były bardzo otwarte.

J-GG: Aż zdano sobie sprawę, że da się czerpać zyski z samych danych. Na przykład zarabianie na reklamach jest trudne, bo grupa odbiorców jest szeroka, a zwrot z inwestycji niewielki. Ale jeśli skierujemy reklamy do konkretnych odbiorców, zaczyna się robić ciekawie. A to tylko jeden z przykładów zastosowania inteligentnych agentów we współczesnej gospodarce.

Być może w przyszłości sztuczna inteligencja znajdzie zastosowanie w połączeniu z urządzeniami autonomicznymi. Ale wielu ludzi obawia się takich maszyn, sądząc, że – jak golemy – staną się niezależne i wykształcą wolną wolę. Jednak te obawy nie mają żadnego poparcia w faktach. Dotyczą raczej bardzo pierwotnego lęku, który pojawia się już w starożytnych opowieściach. Wie pani, że słowo „robot” powstało w Czechach?

AP: Tak, wymyślił je pisarz Karel Čapek.

J-GG: To ciekawe, że Čapek pochodził z Pragi, miejsca narodzin Golema. Ta legenda opowiada o mocy człowieka, który dorównuje Bogu, choć jego twór jest sprzeczny z naturą.

Ważne jest jednak, żeby rozróżniać wyobraźnię od rzeczywistości. Świat zmienia się z powodu sztucznej inteligencji, ale nie tak, jak projektowały to najróżniejsze tradycje.

AP: Co sądzi Pan o dyskursie osobliwości, o którym mówi Raymond Kurzweil – o zapowiedziach, że być może już za 20 lat możemy się spodziewać przełomu?

J-GG: Interesuję się tematem osobliwości już od lat. Wciąż zdumiewa mnie, że tak wielu ludzi, zwłaszcza w wielkich firmach, przychyla się do tej hipotezy. Dla mnie to szaleństwo. Pytałem filozofów, dlaczego nie próbują jej negować. Śmiali się, że nie można tego traktować poważnie. Próbowałem dyskutować, byłem podejrzliwy i miałem konkretne, technologiczne argumenty, ale nic z tego nie wyszło. Czytała pani książki Raymonda Kurzweila?

AP: „Nadchodzi osobliwość”?

J-GG: Chociażby. Wszystkie jego książki są podobne. Pisze, że w naturze ewolucja przebiega wykładniczo – podobnie w technologii, bo tak działa cały świat. Prawo Moore’a stanowi koronny argument jego teorii. Można z tym dyskutować i właśnie próbuję to robić. Jak na razie wszystko wskazuje, że prawo Moore’a osiągnęło granicę i tak już pozostanie. Ale nawet gdyby okazało się inaczej – niczego to nie zmienia. Olbrzymia szybkość komputera nie wiąże się z powstaniem świadomości ani możliwością wgrania do niego własnej.

W ogóle z filozoficznego punktu widzenia dziwnym jest mówienie o przenoszeniu świadomości do maszyny, bo to oznacza, że jesteś materialistą, a twój umysł może zostać kompletnie oddzielony od ciała.

AP: Jakbyśmy nie mieli fenomenologii i nigdy nie odkryli inteligencji ciała. Jakby te dwie rzeczy mogły być zupełnie rozdzielne.

J-GG: Dokładnie. Pojawia się też argument, że maszyny same się uczą, a wiedza zdobywana w ten sposób jest o wiele wydajniejsza niż nasza. Owszem, maszyny będą mądrzejsze od nas. Nawet bez świadomości będą podejmować lepsze decyzje – dlatego przekażemy im władzę i odpowiedzialność. Thomas Kuhn stworzył pojęcie „zmiany paradygmatu”. W historii odkryć oznaczało to świadomość wydarzającej się rewolucji, wywracającej dotychczasowe koncepcje i pojęcia. Zdaję sobie sprawę z mocy technik maszynowych, ale znam również ich ograniczenia. Maszyny z pewnością same nie doprowadzą do zmiany paradygmatu. Ale współpraca w wielu dziedzinach jest możliwa – choćby w biologii czy fizyce sztuczne czynniki mogą odegrać niezwykle istotną rolę. W naukach humanistycznych czy kulturoznawstwie również. Sam współpracuję z literaturoznawcami nad budową nowego narzędzia interpretacyjnego do rozumienia tradycyjnej literatury.

AP: A co Pan sądzi o uczeniu głębokim? Czy zanim zaimplementujemy te technologie, powinniśmy się zastanowić, jak uczynić je bardziej przejrzystymi, aby uniknąć zagrożenia?

J-GG: Uczenie głębokie to bardzo potężna technika i brakuje nam semantyki na jej opisanie. Zwyczajnie nie wiemy jeszcze, jak dokładnie działa. Nie istnieje teoria uczenia głębokiego, co z naukowego punktu widzenia jest problematyczne. To zabawne, bo historia sieci neuronowych jest bardzo długa. Pierwsze ich modele zbudowano już w 1943 r. To było niezwykle trudne przedsięwzięcie. Okazało się, że przy sieci trójwarstwowej można uzyskać dowolną, w pełni sprawną konfigurację – model był uniwersalny. Ale konfiguracja takiej sieci jest bardzo trudna.

Ostatecznie uczenie głębokie okazało się bardzo praktyczne, więc fakt, że nie mamy żadnej teorii na temat jego działania, jest tym bardziej frapujący. Wyniki statystyczne pokazują, że techniki głębokiego uczenia radzą sobie z ogromnymi ilościami przykładów, i to z bardzo dobrymi rezultatami, co liczy się zwłaszcza przy nauce rozpoznawania obrazów czy głosu. To niezmiernie wydajna technologia, ale nie rozwiązuje wszystkich problemów i nie zaspokaja każdej potrzeby.

AP: Czyli to nie czarodziejska różdżka.

J-GG: Nie, czasem potrzebujemy uczenia nienadzorowanego do wygenerowania nowych koncepcji. Poza tym trzeba wiedzieć dokładnie, jak konkretny przykład ma się do danych wyjściowych programu. Czasem nie jest to problem, ale w przypadku rozpoznawania twarzy już tak. Maszyna rozpozna Johna albo Aleksandra i nie możemy jej powiedzieć, że nie ma racji tylko dlatego, że nie wiemy, jak ona działa. Program może nam pomoc i jeśli statystycznie patrząc dobrze sobie radzi – to świetnie, jeśli nie, to pojawia się kłopot.

Natomiast w innych zastosowaniach konieczne jest szersze uzasadnienie wyniku. Weźmy przykład współpracy z firmą bankową, która chciała wykorzystać technologię sztucznych agentów do uproszczenia procesu udzielania kredytów. Maszyna służy tylko do wyliczania punktacji, na podstawie której stwierdza się zdolność kredytową. „Uzyskał pan 0,6, a potrzebne jest 0,7” – to się nie sprawdzi, bo klient będzie chciał znać konkretne powody, dla których bank nie chce mu dać pożyczki.

AP: To przypomina chiński projekt punktowej oceny obywateli. Jest przerażający, bo nie wiadomo dokładnie, za co przyznawane są punkty, a kryteriów może być wiele. Podejrzewam, że system opiera się na głębokim uczeniu.

J-GG: Dokładnie! I będzie to kwestia problematyczna dla przyszłości naszego społeczeństwa opartego na idei demokracji. Bez jawnych kryteriów to istny koszmar. Wyobraźmy sobie przyszłość, w której Facebook zacznie zamykać konta użytkownikom bez podawania przyczyny!

AP: To straszna wizja!

J-GG: Okropna! Ważne więc, by w przyszłości zadbać o uzasadnienia i umożliwić ludziom zgłoszenie sprzeciwu. Jeszcze przez wiele lat będziemy musieli korzystać z technik uczenia, które będą musiały uzasadniać rezultaty. Tym zajmujemy się na polu inteligentnych agentów, na tym etapie jesteśmy.

AP: Ma Pan na myśli koncepcję tzw. Wyjaśnialnej sztucznej inteligencji (XAI)?

J-GG: Tak. Moim zdaniem w przyszłości to będzie niezwykle ważny aspekt. Nie jest konieczny do wszystkich zastosowań sztucznej inteligencji, ale w przypadku niektórych jest kluczowy.

AP: Wspomnieliśmy już wiele zagrożeń i negatywnych scenariuszy. Chiński projekt oceny obywateli nie jest najlepszym przykładem społecznej przydatności AI, ale na zakończenie chciałam zapytać o największe zagrożenia oraz nadzieje związane ze sztuczną inteligencją.

J-GG: Największe zagrożenie wynika z tego, że wraz z AI zmienia się społeczeństwo. Ewoluuje też pojęcie polityki. I to nie jest związane wyłącznie ze sztucznymi agentami. Działanie demokracji jest przedłużeniem państwa i terytorium. Dziś terytoria są penetrowane technologiami cyfrowymi, co stanowi znaczne utrudnienie. W rezultacie mogą pojawić się aktorzy niezależni od państwa. Może to mieć pozytywne skutki, ale może również być niebezpieczne, bo osłabia państwo, a aktorzy, którzy nie zostali wybrani przez społeczeństwo, są całkowicie niezależni i mogą robić, co tylko zechcą.

Weźmy Amazon – to coś strasznego! Mają dużo władzy i jeżeli chcą na przykład wykupić jakąś firmę, mogą wywierać odpowiednie naciski, bo mają odpowiednie środki. To chyba dobra ilustracja prawdziwego zagrożenia w przyszłości. Sztucznych agentów można zastosować do najróżniejszych celów, czasem koszmarnych. Zobaczymy, jak Chinom pójdzie z technologią rozpoznawania wizerunku. Ale te negatywne scenariusze wcale nie są już ustalone.

Wszystko zależy od nas. Swój optymizm uzależniam od tego, czy będziemy w stanie zrozumieć zarówno pozytywne, jak i negatywne aspekty nowych technologii. Jedne i drugie wynikają z samej natury informacji. Jeśli ludzie się z czymś nie zgadzają, wszystko się zmienia. I taka zmiana może nastąpić bardzo szybko. Myślę, że to właśnie nas czeka. Jeśli ludzie będą świadomi złych praktyk, firmy będą zmuszone do ich porzucenia.

AP: Bywa też tak, jak w przypadku Facebooka – potęga pieniędzy i danych jest ogromna, co uodparnia na nasze niezadowolenie. Weźmy choćby rozwój nowej marki, czyli Instagrama – medium pozornie wolnego od grzechów ojca-giganta.

J-GG: Zgadzam się. Dlatego od lat poszukuję narzędzi wywodzących się z filozofii politycznej, które mogą pomoc nam zrozumieć nową rzeczywistość. Dobrym przykładem jest pojęcie nadzoru. Może się pani z nim spotkała?

AP: Uważam, że jest pożyteczne.

J-GG: Zwłaszcza w nauce. Jestem przekonany, że z pomocą sztucznych agentów możliwe będą nowe odkrycia. Ale to nie znaczy, że nastąpią automatycznie. Potrzebujemy partnerstwa człowieka i maszyny. Dawno temu rozmawiałem we Francji z lekarzem, wiekowym i poważanym. Powiedział mi, że owszem, to by było bardzo interesujące, bo wszyscy naukowcy korzystają z tego samego dogmatu, rodzaju dominującej

koncepcji. A maszyny byłyby od tego wolne i mogłyby uczyć się bez odgórnie przyjętych założeń czy uprzedzeń. Byłem wtedy bardzo młody i próbowałem mu wyjaśnić, że to bardziej złożone zagadnienie. Maszyny też mają dogmaty, bo kiedy podaje się maszynie przykład,botrzymuje ona konkretne przedstawienie.

AP: Czyli człowiek przenosi własne dogmaty na maszynę? W końcu wszystkie dane to ludzkie dane.

J-GG: Nawet w obecności dogmatu maszyna może pomoc w generowaniu nowych teorii. W relacji człowieka z maszyną rolą tego pierwszego jest nie tyle wymyślanie hipotez, co nowych pól ich tworzenia, które maszyny mogą potem zgłębiać. To ogromny przełom, który zawdzięczamy sztucznym agentom. W medycynie, fizyce i innych naukach wydarza się właśnie rewolucja, ale wiele osób, zwłaszcza w dziedzinie big data, zachowuje się naiwnie.

Myślą, że wystarczą dane – bez modelu, bez teorii – żeby wygenerować rezultat wyjściowy. Teoria jest niezbędna właśnie dlatego, że nawet bez niej potrafimy osiągnąć tak wiele.

Rozmawiała ALEKSANDRA PRZEGALIŃSKA

 
Fabien Gandon
NADCHODZI SPOŁECZEŃSTWO HYBRYDOWE

Aleksandra Przegalińska: „Sieć semantyczna” to dla wielu osób trudne i obce pojęcie. Co to takiego? Do czego służy?

Fabien Gandon: Gdy spojrzymy na historię sieci, okazuje się, że pierwszy pomysł i pierwszy dokument stworzony przez Tima Bernersa-Lee tak naprawdę już opisywały sieć semantyczną. Nie jest to więc – jak sądzi wiele osób – coś nowego. Idea Tima zakładała stworzenie bardzo bogatego systemu rozmaitych elementów, powiązanych różnymi rodzajami relacji. I odnajdujemy to wszystko, kiedy przeglądamy Internet, wchodzimy na strony i klikamy linki. Sieć semantyczna to taki internet stworzony dla maszyn – dostęp do sieci ma być dla nich równie łatwy jak dla ludzi. Zasady są analogiczne - umieszczamy w sieci dane, a kiedy maszyna natrafi na konkretną informację, będzie mogła skorzystać z linków, żeby odkryć nowe dane. Oto konkretny przykład: umieszczam w sieci informację o Warszawie. Podaję, że Warszawa jest stolicą, stolicą kraju  i mogę między tymi pojęciami stworzyć linki. Np. dodać, że istnieje inna stolica – Paryż. Mogę też stworzyć powiązanie między informacjami o Warszawie i o Paryżu, więc kiedy maszyna znajdzie dane o Warszawie, będzie mogła podążyć za linkiem, odkryć informacje o Paryżu i zdobyć nowe dane do swojej bazy. Zupełnie jak człowiek, przeglądający strony www.

Po co umożliwiamy maszynom budowanie wiedzy?

Daje to wiele korzyści. Kiedy chcesz stworzyć AI lub w ogóle myślisz o sztucznej inteligencji, zawsze pojawia się pojęcie wiedzy. Jest ona niezbędna dla rozwoju inteligencji i vice versa: rezultatem inteligentnego przetwarzania danych jest nowa wiedza. Dlatego natychmiast pojawia się pytanie: skąd wziąć tę wiedzę i gdzie umieścić nową, kiedy już powstanie? Sieć semantyczna jest odpowiedzią na te pytania. To miejsce, w którym maszyny mogą dzielić się wiedzą, znajdować nową i umieszczać swoją własną. A zatem sieć staje się dla maszyn tym samym, czym jest dla nas: miejscem wymiany informacji i tworzenia powiązań między nimi. Zarówno my, jak i sztuczna inteligencja funkcjonujemy w tej samej sieci. Tworzymy społeczność hybrydową. To zabawne, ale w 2012 roku wśród 50 najaktywniejszych redaktorów angielskojęzycznej Wikipedii prawie 40 było robotami – botami internetowymi. Wikipedia stała się hybrydową przestrzenią, w której ludzie i agenci oprogramowania współpracują przy tworzeniu encyklopedii. Boty np. wyszukują spam i brakujące odnośniki do źródeł, a ludzie kontrolują  jakość tych prac. Sztuczna inteligencja zadomowiła się także w portalach społecznościowych, takich jak Facebook, Twitter, Weibo w Chinach i wiele innych. Wzbogacenie sieci o dane i semantykę wpływa nie tylko na nią samą, ale także na wszystkie powiązane z nią aplikacje. Informacje stają się dostępne dla sztucznych agentów, którzy mogą je przetwarzać. Maszyny potrafią np. wykrywać społeczności, skupione wokół konkretnego obszaru zainteresowań – choćby rolnictwa. Analizują strukturę takiej społeczności i na podstawie wnioskowania odnajdują najbardziej uznanego eksperta. W ten sposób pomagają nam znaleźć najlepszego specjalistę. Taka semantyczna sieć społecznościowa powstaje, kiedy połączymy atrybuty sieci semantycznej z możliwościami  mediów społecznościowych, opartych na interakcji pomiędzy użytkownikami i wymianie treści na światową skalę.

W naszym laboratorium korzystamy z Condora. To narzędzie umożliwiające ogląd własnej sieci społecznościowej z szerszej perspektywy: węzłów centralnych i peryferyjnych, naszej komunikacji z innymi, jej częstotliwości, tematyka. Ale rozwiązania, o których pan mówi, są bardziej zaawansowane. Jakie jeszcze mogą mieć zastosowania?

Jeden ze scenariuszy prowadzi do tego, by społeczność sama sobą zarządzała. W każdej społeczności są zróżnicowanie użytkownicy: zwykli członkowie, eksperci, administratorzy zarządzający grupą. Każdy z nich wymaga innych wzorców analizy i informacji zwrotnych. Sieć semantyczna może pomóc w ich agregacji oraz odnajdywaniu połączeń. Jeśli np. interesuje się pani piłką nożną a ja tenisem, to bez semantyki nie odkryjemy wspólnych zainteresowań. Ale jeżeli wykorzystamy semantykę Tezaurusa, która uznaje, że tenis i piłka nożna to sport, wtedy oba nasze profile zostaną wzbogacone o sport. To jest przykład tego, jak można łączyć analizę społecznościową z semantyczną.

„Rozproszona sztuczna inteligencja” to taka, na którą składa się wielu sztucznych agentów. Jak wyglądają aktualnie nad nią prowadzone prace?

 Kiedy tu sobie rozmawiamy,  pani jest inteligencją i ja jestem inteligencją, a do tego wspólnie stanowimy część społeczeństwa. Sztuczne inteligencje również nie muszą być osobnymi bytami – monolitycznymi, siedzącymi samotnie w swoim kąciku. Mamy podstawy sądzić, że wiele różnych rodzajów AI będzie musiało wchodzić ze sobą w interakcje i wymieniać się informacjami. Będą również powstawać społeczności sztucznych inteligencji - systemy złożone z licznych inteligentnych agentów. Sieć sama w sobie jest przecież zdecentralizowana. Na całym świecie mamy serwery, źródła, programy i ze wszystkimi możemy się połączyć. A ponieważ chcemy, żeby AI mogły się łączyć z rozproszoną architekturą sieci, same muszą mieć rozproszoną architekturę – zbudowaną z wielu różnych agentów na całym świecie, tak samo jak nasze serwery i strony internetowe.

Mam wrażenie, że wśród większości ludzi pokutuje wizja AI jako robota, który przybędzie przejąć władzę nad ludźmi i dać ludzkości nauczkę. Przypomina człowieka, jest zimny i wyrachowany, ale bardzo dobrze rozumuje. Jest swego rodzaju przeciwieństwo istoty ludzkiej. Przedstawiona przez pana koncepcja wygląda zupełnie inaczej -  to cała populacja sztucznych inteligencji o różnych możliwościach. Która z tych wizji ma większe szanse zaistnienia w przyszłości? Która byłaby dla nas korzystniejsza?

Te koncepcje nie powinny być przeciwstawne.  System wieloagentowy zawiera w sobie monolityczne sztuczne inteligencje. Każdy z agentów jest autonomiczny i stanowi sztuczną inteligencję w tym najbardziej rozpowszechnionym rozumieniu. Większość ludzi koncentruje się jednak tylko na jednym z nich, nie biorąc pod uwagę faktu, że na całym świecie wielu twórców buduje wiele sztucznych inteligencji. Jeśli są one podłączone do sieci, będą się za jej pośrednictwem komunikować. To się już dzieje. Interakcje botów na Wikipedii to właśnie kilku autonomicznych agentów tworzących inteligentny system. Jaki scenariusz byłby najbardziej pożądany? Powiedziałbym, że najlepsze jest podejścia zdecentralizowane. Dla sieci, jak i innych zagadnień informatycznych, centralizacja stanowi duże zagrożenie. Daje jednej osobie możliwość objęcia pełnej kontroli, a to nigdy nic dobrego. Powstaje również inne ryzyko - jeśli jedna, wyspecjalizowana sztuczna inteligencja zawiedzie, wszystko się zawali. Decentralizacja służy demokratyzacji i odporności sieci, bo jeśli w systemie wieloagentowym jeden z nich będzie niedoskonały, inny może przejąć jego zadania i kontynuować pracę.

Niedawno zajmowałam zagadnieniem świadomości kontekstu, która zdaje się niezwykle istotna dla przyszłości Internetu Rzeczy. Jaki według pana jest jej główny cel?

W moim rozumieniu w świadomości kontekstu chodzi o stworzenie takiego sztucznego agenta, z którym wchodzimy w interakcję, który potrafi zaadaptować się do naszej aktualnej sytuacji. Jeśli np. korzystam sobie z programu pocztowego i on wie, że jestem bardzo zmęczony, może zmienić swoje zachowanie i postanowić, że nie będzie pobierać e-maili z serwera co minutę, tylko co dziesięć, żeby nie przysparzać mi stresu. Bardzo ważnym aspektem jest poszukiwanie dobroczynnych zastosowań sztucznej inteligencji, jak choćby wyposażanie urządzeń w zdolność do wykrywania, czy człowiek akurat idzie lub prowadzi, żeby system nie przeszkadzał nam w trakcie wykonywania tych czynności. Istnieje wiele projektów interakcji, mających za zadanie uczynić system inteligentniejszym i zarazem mniej rozpraszającym. Jest np. aplikacja Waze, która sprawia, że nie da się korzystać z telefonu podczas jazdy. Ma bardzo ograniczone działanie, bo nie robi nic „inteligentnego” - nie łączy się ze smartwatchem, nie rozróżnia czy użytkownik jest kierowcą czy pasażerem. Ale to przykład tego, że zmierzamy w dobrym kierunku.

Niedawno wróciłam z Rio, gdzie powiedziano nam, że jeśli chcemy gdziekolwiek pojechać to Waze jest najlepszą aplikacją, bo pokaże nam najkrótszą drogę. Ale za to mapy Google mają funkcję, która pozwala im pokazywać trasę może nie najkrótszą, ale najbezpieczniejszą.

To również znakomity przykład decentralizacji i systemu wieloagentowego w sieci. Mapy Google to tylko jedna z opcji. Razem z Waze i mapami Open Street poznajemy różne sposoby patrzenia na problem, różne propozycje i różne kanały, poprzez które użytkownicy mogą się włączyć do współtworzenia i napędzania zmian. Ekosystem nie może być uwięziony w ramach jednego, scentralizowanego systemu i sposobu patrzenia na świat.

Wielu osobom wszystkie omawiane przez nas koncepcje mogą się wydawać dość fantastyczne. Pozostaje jednak bardzo problematyczna kwestia prywatności. Czy tracimy ją, wzbogacając systemy? Powinniśmy się tego obawiać?

Musimy być ostrożni. To dotyczy nie tylko sieci semantycznej czy sztucznej inteligencji. Dla mnie jest to ogólny, filozoficzny dyskurs wokół każdego narzędzia. Młotek może posłużyć do budowy domu, ale także do zabójstwa. Semantykę można wykorzystać do poprawy bezpieczeństwa i prywatności lub jej zaatakowania. Sama w sobie nie jest ani dobra, ani zła. Kiedy dawno temu pracowałem w USA na Uniwersytecie Carnegie Mellon, zajmowaliśmy się projektem e-Wallet. Używaliśmy wtedy sieci semantycznej do ustalania, czy ktoś powinien mieć dostęp do naszych danych, a także do kontrolowania poziomu dostępu. Dzięki semantyce można było zrobić dużo więcej, niż tylko ustawić dostęp lub jego brak. Można było wprowadzać precyzyjne warunki: „moja żona zawsze ma dostęp do mojej lokalizacji”, „mój szef ma dostęp do mojej lokalizacji tylko w miejscu pracy”, „strażacy mogą mnie namierzyć zawsze”, „moja lokalizacja jest publiczna, ale tylko na poziomie miasta, w którym się znajduję”. Wszystkie te działania mogą pomóc w ochronie  naszej prywatności. Nie należy się bać semantyki, bo sama w sobie nie jest niczym złym. Musi jednak podlegać kontroli, jak wszystko inne.

 
Wiesław Bartkowski
Komputer jest „wzmacniaczem” moich możliwości

Adam Mandziejewski: Twórczość artystyczna i kreatywność od zawsze uznawane były za jeden z wyróżniających nas obszarów ludzkiej działalności. Tymczasem AI coraz częściej wchodzi również na to pole i radzi sobie całkiem przyzwoicie. Jakie miejsce zajmuje AI w twojej działalności?

Wiesław Bartkowski: Najpierw małe sprostowanie. AI (Artificial Inteligence), sztuczna inteligencja, nie radzi sobie najlepiej, dopiero raczkuje na tym polu, choć miewa spektakularne sukcesy, ale w bardzo wąskich dziedzinach. Bo nie istnieje ogólna sztuczna inteligencja, tak jak potocznie o niej się myśli. To duże nieporozumienie wynikające z tego, że na początku badania nad AI właśnie takiej ogólnej, dorównującej ludzkiej, inteligencji poszukiwały. Potem to bardzo się zmieniło; skupiono się na rozwiązywaniu bardzo wąsko zdefiniowanych zadań, jak np. rozpoznawanie tego co jest na zdjęciu albo co widzi kamera. Wąska dziedzina zwana computer vision miała dać komputerom oczy, bo były zupełnie ślepe pomimo strumienia danych z kamer. W tej dziedzinie w ostatnich kilku latach, dzięki uczeniu maszynowemu (jednej z metod sztucznej inteligencji), mamy do czynienia ze spektakularnymi sukcesami. Nie mam na myśli znajdowania obrazów z kotami (śmiech), ale rozpoznawanie twarzy, a nawet ekspresji emocji na tej twarzy, i to na bieżąco w obrazie wideo, a nie na statycznym zdjęciu. Inny przykład to rozpoznawanie raka na zdjęciach rentgenowskich, ale wciąż lepiej niż maszyny robią to ludzie. Można by tak długo wymieniać. Rozwinięcie wizji maszynowej pozwoliło komputerom robić nowe rzeczy, np. prowadzić samochody, ale też sprytnie przetwarzać obrazy, zmieniać ich cechy, a nawet zamieniać zdjęcia w reprodukcje obrazów udających styl znanego malarza.

Jednak moim zdaniem najważniejsze co się stało, to zmiana podejścia do tego, jak można programować komputer. To daje ogromne pole do eksploracji artystycznej. Do tej pory komputery programowało się określając dokładnie co mają zrobić w każdej możliwej sytuacji. Każda reakcja musiała być zaprogramowana przez programistę, nawet reakcja przypadkowa. Takie podejście oczywiście daje ogromne możliwości, osobiście bardzo je lubię. Szczególnie programowanie imperatywne. To bardzo przyjemne. Ja tworzę ciągi komend, a komputer je wykonuje. Nie znaczy to jednak, że wszytko można z góry przewidzieć. Programy nawet bardzo krótkie, mające kilka linijek tekstu z instrukcjami programu, po jednej instrukcji w każdej linijce, nadal mogą nas zaskoczyć złożonością wyprodukowanego efektu. Uwielbiam ten rodzaj przypadku kiedy komputer mnie zaskakuje, bo spodziewałem się innego efektu, a ten niezamierzony jest jeszcze lepszy! Tym nie mniej cały mechanizm tworzenia tego efektu jest „ręcznie” skonstruowany, tak jakbyśmy konstruowali ogromną maszynę z trybikami. Śmieję się, że uczę na Creative Coding ginącego (pewnie już niebawem) rzemiosła, jakim jest „ręczne” programowanie komputera.

Uczenie maszynowe to zmieniło. Programista nie ustala każdej reakcji, bo pojawiła się możliwość stworzenia ogólnej architektury sytemu uczącego się, którego się nie programuje, ale uczy się go na przykładach. Co więcej, pojawiły się już metody uczenia nie nadzorowanego, czyli komputer sam może się uczyć na swoich błędach! Podobnie jak my się uczymy. Ale póki co, to nadal jest tylko optymalizacja. Nawet jeżeli komputer wygrywa w GO, to nie znaczy, że myśli, ale optymalizuje na podstawie ogromnych zbiorów danych, które dostał od nas lub w oparciu o reguły gry, np. szachy, sam sobie wygenerował bezwiednie błądząc, samodzielnie eksplorując przestrzeń możliwych ruchów. W konsekwencji ogromne zbiory danych redukuje do tego jaką najoptymalniejszą decyzje w zaistniałej sytuacji ma podjąć. Inaczej mówiąc jest świetny w rozwiązywaniu łamigłówek, ale „życiowo” nadal zupełnie niezaradny. Do tego potrzebne są emocje, których do sztucznej inteligencji nikt nie umie zaimplementować. Tak, emocje! Maszyna nie ma emocji. One są niezbędne do podejmowania racjonalnych decyzji. Nie do rozwiązywania zagadek logicznych, ale do podejmowania „życiowo” ważnych decyzji. Ale to na osobny wywiad. Ciekawym polecam książkę Błąd KartezjuszaAntonio Damasio.

Wracając do AI i mojej działalności. AI działa w oparciu o sztuczne sieci neuronowe, matematyczne modele neuronu. Modelujące w bardzo uproszczony sposób, czasami mawia się nawet „karykaturalny sposób”, działanie biologicznego neuronu. To niezwykłe, że przy tak dużym uproszczeniu, sieć połączonych ze sobą sztucznych neuronów wykazuje tak złożone właściwości jak np. wygrywanie z człowiekiem w GO.

16 lat temu, rozpoczynając prace nad doktoratem z psychologi pod kierunkiem prof. Andrzeja Nowaka – który wprowadził pionierskie podejście do uprawiania psychologii tworząc modele procesów psychicznych i społecznych, a potem symulując je komputerowo – robiliśmy symulacje strumienia świadomości albo wpływu społecznego mediowanego przez technologię. Przydały się moje umiejętności zdobyte na MIM UW podczas studiów informatycznych. W pierwszym podejściu do mojego doktoratu próbowaliśmy wprowadzać emocje w sztucznych sieciach neuronowych, a ja chciałem takimi „emocjonalnymi” sieciami szukać optymalniejszych rozwiązań najtrudniejszych problemów w informatyce, tak zwanych problemów NP trudnych. Ha ha, dawne czasy. Niestety niewiele z tego wyszło, ale przy okazji uczyliśmy studentów w Connecticut College jak działają sztuczne sieci, pokazując m.in. model pandemonium. Pamiętam, że zrobiliśmy małą edukacyjną aplikację wyjaśniającą działanie takiego modelu wizualnie. Teraz wygląda to nieco retro.

Pandemonium to model teoretyczny opisujący rozpoznawanie obiektów w procesie spostrzegania wzrokowego. Wykorzystuje do tego metaforę umysłu jako zbioru demonów. Demony „nawołują się” zgodnie z wewnętrzną hierarchią warstw. Kolejne warstwy to odpowiednio demony danych, cech, poznawcze i na końcu demon decyzyjny. Można uznać, że model jest niejako protoplastą dzisiejszych sztucznych sieci neuronalnych uczenia głębokiego (ang. deep learning). Model pandemonium pochodzi z pionierskich czasów badań nad sztuczną inteligencją w latach 50. Dziś uznany za klasyczne dzieło w badaniach nad AI. Opublikowany w 1959 przez Olivera Gordona Selfridge’a, nazywanego „ojcem widzenia maszynowego”, w artykule Pandemonium: A paradigm for learning.

Model pandemonium w tamtym czasie został całkowicie zignorowany przez środowisko zajmujące się badaniami nad AI, ponieważ radykalnie odbiegał od promowanego wtedy podejścia bazującego na logice i operacjach symbolicznych. Dziś obserwując ogromy sukces deep learnig możemy powiedzieć, że Selfridge wyprzedził swój czas.

Dlatego chcę pokazać ten model na „Przemianach”, ale w nowej odsłonie, z wykorzystaniem tworzywa będącego połączeniem kodu, elektroniki i cyfrowej fabrykacji. Pozwala on tworzyć namacalne, ucieleśnione doświadczenia, które dużo silniej angażują odbiorcę niż wszechobecne ekrany. Powtarzam po moim guru Hiroshi Ishii (Tangible Media Group – MIT), że mieszam bity i atomy. Tego też uczę moich studentów.

Wracając do AI i komputera. Dla mnie już od dawna komputer jest „wzmacniaczem” moich możliwości, mogę z nim zrobić więcej niż bez niego, np. pisząc symulację komputerową zjawiska, które trudno mi zrozumieć. Jeżeli w przyszłości ten komputer będzie sztuczną inteligencją i nie będziemy podchodzić do niego pełni lęków, ale otwarci na współpracę, to możemy dużo więcej osiągnąć.

Tu przypomina mi się ważna dla mnie historia. Uwielbiam jak efekt działania mojego programu mnie zaskakuje. Często jeszcze bardziej dziwi mnie to, co dzieje się z tymi efektami. Byłem zdumiony, kiedy za sprawą Łukasza Rondudy moje symulacje trafiły na wystawę sztuki współczesnej. Cieszę się, że teraz doświadczają tego moi studenci, zupełnie zaskoczeni faktem, że ich prace dyplomowe staną się scenografią do spektaklu o sztucznej inteligencji.

Wracając do AI. Muszę przyznać, że po porażce z problemami NP straciłem zainteresowanie sztucznymi sieciami neuronowymi, ale teraz ten obszar ponownie staje się ekscytujący za sprawą m.in. sukcesów deep learning. Ten temat stał się ważny również dla artystów. Było to wyraźnie widać podczas Ars Electronica 2017, której motywem przewodnim było „AI – THE OTHER I”. Ciekawe było spojrzenie na technologię jako na przestrzeń dla projekcji naszych pragnień i lęków. I postawienie pytania, co będzie nas różnić od myślących maszyn? Ja osobiście lubię myśleć o rozwoju AI jako podróży do lepszego zrozumienia nas samych, a przy okazji nabrania pokory, bo może nie jesteśmy tacy wyjątkowi jak nam się wydaje.

Ciesze się, że Festiwal Przemiany wraca do tego tematu z innej ciekawej perspektywy, mówiąc o cywilizacji algorytmów, która kształtuje nasz świat, nie wyłączając z tego kultury, której oddajemy coraz więcej władzy. Mnie osobiście zastanawia to, co powiedział Robert Ebstein: „Jeżeli ludzie zaufają maszynom, to będzie koniec demokracji”.

Ale odkładając na bok strach i podążając za fascynacją, podczas festiwalu będzie media lab, na którym poeksperymentujemy z soft robotami. Robotami, które nie mają silników tylko sztuczne „mięśnie”. Część naukowców jest przekonana, że połączenie możliwości miękkich, elastycznych robotów z metodami sztucznej inteligencji będzie ogromnym przełomem w robotyce i sprawi, że roboty bezpiecznie wkroczą np. w przestrzeń publiczną.

My popatrzymy na to z innej strony, tak jak to zazwyczaj robimy na Creative Coding. Będziemy eksplorować twórczy potencjał tego połączenia. I uwaga – nie jest to warsztat dla inżynierów, choć tych też zapraszamy. Nie trzeba umieć kodować, znać się na elektronice, czy cyfrowej fabrykacji. Poza robotami uczestnicy doświadczą podejścia, jakie stosujemy na naszych studiach, czyli uczenia twardych umiejętności w miękki sposób. Tym razem będą to miękkie roboty. Szczególnie zachęcamy do udziału artystów, projektantów, architektów i wszystkich, którzy myślą, że nie mają umysłów ścisłych i pewnie to nie dla nich.

A odnosząc się do części pytania o twórczość artystyczną i kreatywność. Przyglądając się ostatnio malującym obrazy olejne robotom stworzonym przez Hoda Lipsona, doszedłem do wniosku, że to nie pytanie o twórczość jest ważne, ale o to, kto jest artystą?

Sztuczna inteligencja to partner czy rywal na polu kreacji?

Utarło się postrzeganie sztucznej inteligencji w kontrze do nas, ale powtórzę to jeszcze raz, może warto spojrzeć na nią w kontekście współpracy. Garri Kasparow powiedział, że dobry człowiek wraz z maszyną jest najlepszym połączeniem.

Moi mistrzowie uczyli mnie na studiach informatycznych, że komputer nieprędko wygra z człowiekiem w GO. GO jest wyjątkowe, bo to specyficzne połączenie nauki, sztuki i sportu. Mówiono, że ta gra wymaga ludzkiej intuicji. A dzisiaj wszyscy są w wielkim szoku, że tak szybko metody AI doprowadziły do wygranej z człowiekiem. Czy komputer ma intuicję? Zdecydowanie nie! Jak mówiłem, on tylko optymalizuje. A mimo tego Lee Sedol powiedział, po przegranej z komputerem, że to zmieniło jego sposób myślenia o GO. Komputer nie grał zachłannie. Wystarczyło mu, że wygrał, różnica punktów mogła być mała. Lee powiedział też, że najbardziej zaskoczyło go to, że komputer pokazał, że ruchy, które wydawały mu się kreatywne, tak naprawdę są konwencjonalne. Komputer pokazał, czym może być kreatywność w tej grze. 37. ruch wykonany przez AlphaGo przeszedł do historii, w ocenie mistrzów tej niezwykłej gry, jako piękny i twórczy. Ale to tylko gry, łamigłówki. Mimo to już widać, że jest w podejściu AI jakiś ciekawy potencjał twórczy. Bez wątpienia niezwykły materiał dla artysty, warto zgłębić jego właściwości.

Na koniec, wracając do zwiększania potencjału człowieka dzięki maszynom. Ciekawe jest pytanie, czy jeżeli maszyny będą miały empatię i współczucie, to pomogą nam stać się lepszymi ludźmi? Ja jestem optymistą (śmiech).

Widzisz zatem AI jako kolejne narzędzie w rękach artysty. Jakie nowe perspektywy otwiera to dla sztuki?

Dojdzie do tego, że współpraca człowieka z twórczą maszyną otworzy przed nami nowe formy twórczości. Bardzo inspirował mnie eksperyment Yamahy, w którym tancerz stał się pianistą dzięki zastosowaniu uczenia maszynowego. Podkreślam, współpraca, nie rywalizacja. Trafnie ujął to Krzysztof Garbaczewski w dyskusji, w której ostatnio razem uczestniczyliśmy. Cytuję: „twórczość sztucznej inteligencji może zaistnieć wyłącznie we współpracy z ludźmi. To może być interesujące, ale wydaje mi się, że gdyby dzieła tworzyła tylko sztuczna inteligencja, to one byłyby tylko dla sztucznej inteligencji”. Tu dodam, że sztuczna inteligencja nigdy nie będzie ludzką inteligencją, bo nie będzie mieć ludzkiego ciała. Żeby to wyjaśnić, musiałbym wejść w teorię poznania ucieleśnionego, ale to temat na osobny wywiad (śmiech).

Czuję, że chciałbyś, żeby na akademiach znalazł się kurs uczenia maszynowego…

Trzeba przełamać barierę myślenia „to za trudne, nie rozumiem tego, odcinam się”. Humaniści muszą włączyć się w proces kształtowania otaczającego nas świata, na który coraz większy wpływ ma technologia. Nie mogą oddać pola, mówiąc, że tego nie rozumieją. To, co ja próbuję robić od ponad 25 lat, to nauka programowania artystów, projektantów i wszystkich, którzy twierdzą, że mają umysł humanistyczny i to nie dla nich! To nie jest prawda. I dzieje się rzecz niezwykła. Gdy „humanista” nauczy się programować, zaczyna inaczej myśleć o świecie technologii. Czuje sprawczość. Czuje, że może się włączyć w proces tworzenia, kształtowania tego świata. Między innymi dlatego dałem się przekonać Krzysztofowi Golińskiemu z panaGeneratora, aby stworzyć studia Creative Coding.

Promuję podejście holistyczne. Każdy powinien trochę znać się na wszystkim, rozwijając to, w czym jest najlepszy. Dla mnie jest to np. programowanie – wymierające rzemiosło (śmiech). To pomaga nawiązać dialog. I jeszcze jedno. Brakuje nam harmonijnego rozwoju. Na uczelniach wyższych za bardzo stawia się na umysł, za mało pracuje rękami. Wydawałoby się, że skoro na Creative Coding uczymy programowania, to studenci dużo czasu siedzą przed komputerami. To nieprawda, spędzają przed nimi może 15% czasu. Zmierzenie się z materialnym światem jest dużo trudniejsze od wyzwań jakie stawia nam świat wirtualny. Studenci faktycznie kodują, ale z drugiej strony robią obwód elektroniczny, który steruje jakimś obiektem. Oprócz pracy umysłowej muszą coś zlutować, poplątać jakieś kable, stworzyć mechanikę obiektu, współpracować z maszynami sterowanymi cyfrowo.

Podsumowując, można powiedzieć, że takim narzędziem może być kultura Media Labu. To forma interdyscyplinarnego działania umożliwiająca wspólną pracę i uczenie się osób o różnych umiejętnościach z wykorzystaniem mediów i technologii, ale też inspiracji płynących z nauki. Podstawą jest eksperyment, doświadczenie konstruowania artefaktów i obserwacja ich wpływu. Wymiana doświadczeń, otwartość, ale nie tylko na grupę. Otwarte dzielenie się efektami ze światem na otwartej licencji. Przykład z naszego podwórka – wszystko, co robimy na zajęciach z Creative Coding dostępne jest na github.

Czy sztuka może tłumaczyć naukę i nowe technologie?

Znacznie więcej. Nie jest biernym narratorem. Przyczynia się do rozwoju nauki i rzuca nowe światło na rozumienie tego, czym jest technologia. Hakuje ją. Zmienia perspektywę. Lubię powtarzać moim studentom, że uczymy ich nie bać się robienia rzeczy niepotrzebnych. Rozwiązywanie problemów zostawmy inżynierom. I co się dzieje? Jak wspomniani inżynierowie zaglądają do naszego labu Creative Coding, mówią: „tu dzieje się prawdziwa innowacja”. Śmieję się, że nie wiemy, co znaczy to słowo. Są zaskoczeni sposobami, w jakie można wykorzystać ich technologie. I to rozwija obie strony. Podobnie dzieje się w kontekście społecznym. Sztuka rzuca nowe światło na technologię, której na co dzień bezrefleksyjnie używamy.

Niezwykle cenne są inicjatywy łączące sztukę z nauką i techniką. Jak chociażby „European Digital Art and Science Network”. Ogromne wrażenie zrobiła na mnie praca CellF stworzona przez Guy Ben-Ary z zespołem naukowców. Jest to syntezator sterowany siecią prawdziwych, żywych neuronów. Widziałem jak na żywo improwizowała z muzykami.

Twórcza współzależność nauki, nowych technologii i eksperymentu artystycznego może zmienić to, jak wyobrażamy sobie i uprawiamy sztukę. Wszyscy staną się twórcami? Tak się nie stało za sprawą internetu, ale za sprawą uczenia maszynowego, a w przyszłości innych technik AI, może to nastąpić. I znowu zacytuję Krzysztofa Garbaczewskiego: „Dziś każdy jest artystą, bo każdy ma Instagram. Rozwój sztucznej inteligencji może spowodować, że nastąpi wysyp artystów”. No właśnie. Bo nasz mózg tak działa, że lepiej rozpoznaje paterny/wzorce, niż tworzy nowe. Ale we współpracy z algorytmem dostajemy super moc. Komputer może wygenerować wiele wariantów, a my wybieramy co nam pasuje. Tak powstaję remiksy, za pomocą filtrów wykorzystujących uczenie maszynowe, i tego będzie coraz więcej. Niewątpliwie dalszy rozwój AI jeszcze bardziej wpłynie na kulturę i kontakt z nią, niż obecnie zrobiły to smartfony.

 

 


TYTUŁ/TITLE
Cywilizacja Algorytmów/ The Civilization of Algorithms

REDAKTOR/LITERARY EDITOR
Aleksandra Przegalińska

TŁUMACZENIA/TRANSLATIONS
Biuro Tłumaczeń Narrator

PROJEKT GRAFICZNY/ EDITORIAL DESIGN

KOREKTA/EDIT & PROOFREADING
Natalia Krasicka
Katarzyna Nowicka

WARSZAWA 2018/ WARSAW 2018

 

 

Redaktor

dr Aleksandra Przegalińska