Recenzje:
Po powstaniu sztucznej inteligencji człowiek może podzielić los goryli, których życie zależy niemal wyłącznie od woli naszego gatunku.

Po powstaniu sztucznej inteligencji człowiek może podzielić los goryli, których życie zależy niemal wyłącznie od woli naszego gatunku. Nick Bostrom, szwedzki filozof i ważna postać współczesnego transhumanizmu, czyli nurtu głoszącego potrzebę technologicznego udoskonalania człowieka, napisał książkę przedstawiającą ogrom problemów oraz zagrożeń związanych z uruchomieniem w przyszłości su-perinteligencji (SI). Jakpisze wjej wstępie, jest to ?prawdopodobnie najważniejsze i najbardziej onieśmielające wyzwanie, z jakim kiedykolwiek mierzyła się ludzkość. I niezależnie od tego, czy nam się powiedzie czy nie - jest to prawdopodobnie ostatnie wyzwanie, z którym przyjdzie nam się kiedykolwiek zmierzyć". Dlaczego? Ano dlatego, trzymając się narracji autora, że po uruchomieniu SI los człowieka nie będzie już pozostawał w jego rękach, podobnie jak los współczesnych goryli nie zależy od nich, ale od ludzi.

Duża część jego dzieła dotyczy bowiem motywu "ucznia czarnoksiężnika" albo "dżina z butelki" - co by się stało, gdyby ewentualna SI opacznie pojęła wyznaczone jej cele. Rzecz jasna w przypadku sztucznej inteligencji nie chodziłoby o złą wolę, ale mechaniczne dążenie do celu. I tak, gdyby takim celem była np. optymalizacja produkcji spinaczy, mogłaby w sposób bezwzględny (bo jakże inaczej, skoro ludzkie uczucia byłyby jej obce) przekształcić całą dostępną jej część uniwersum w infrastrukturę do ich produkcji. Dla SI liczy się bowiem cel, nie rozumie ona wszak, że ma on zaspokajać potrzeby ludzi.

Bostrom snuje przy tej okazji różne przypuszczenia dotyczące domniemanej przebiegłości SI. Dysponując superwysoką sprawnością, SI może podejmować z człowiekiem grę po to, by zmaksymalizować prawdopodobieństwo osiągnięcia wyznaczonego celu. Jeżeli więc uzna, że aby zwiększyć produkcję spinaczy, musi się uwolnić spod nadzoru ludzi, to podejmie odpowiednie działania, łącznie z ukrywaniem swoich prawdziwych intencji dopóty, dopóki będzie to konieczne.

SI mogłaby też uznać, że ludzkość stanowi rodzaj surowca do pozyskania. Gdyby tak się stało, użyłaby wszystkich możliwych sposobów, aby gatunek ludzki wyeliminować lub wykorzystać. Bostrom podkreśla przy tym, że skoro mielibyśmy do czynienia z SI, to na pewno nie podjęłaby ona działań głupich, jakie znamy z popularnych filmów w rodzaju "Terminatora".

Autor rozważa możliwości zapobieżenia takiemu scenariuszowi. Wydaje się, że nie wystarczy zaimplementować SI ?miłości do człowieka", bo efekty tego wcale nie musiałyby być zgodne z naszymi oczekiwaniami. SI mogłaby nas próbować np. uszczęśliwić, pobudzając ludzkie ośrodki przyjemności. A przecież nie o to chodzi. Jednak w takim razie, jak przekazać SI troskę o wyższe wartości, sko -ro my sami nie jesteśmy w stanie uzgodnić, o jakie wartości chodzi? Nawet zaś jeżeli ustalimy jakiś korpus norm moralnych, to jak przełożyć go na język cyfrowy i zaimplementować SI?

Autorowi nie brak w tych rozważaniach fantazji i odwagi. Np. zastanawia się nad możliwością eksploracji całego kosmosu 1 przekształcania go wedle opracowanego przez SI projektu. Pojawia się przy tym kwestia realności samego uniwersum, które - jak zakłada autor - wcale nie musi być ?pierwotną" realnością. Wedle Bostro-ma jest bowiem wielce prawdopodobne, że żyjemy w którejś z warstw wirtualnej rzeczywistości. Wynika to z postawionej przez tego filozofa tzw. hipotezy symulacji. Głosi ona w największym skrócie, że jeżeli jakaś cywilizacja stworzyła kiedykolwiek symulację, to my najprawdopodobniej żyjemy w którejś generacji takiego symulowanego świata.

Autor podejmuje zatem kwestię, na ile wzięcie tego pod uwagę wpłynęłoby na działania samej SI. Mogłaby np. próbować ?pójść na współpracę" z twórcami symulacji, wcześniej jednak powinna ustalić, o co takim twórcom w ogóle chodziło. Przypomina to trochę do mysły snute wokół intencji i oczekiwań Boga - skojarzenie to jest o tyle nieprzypadkowe, że rozważania dotyczące transhumanizmu często jako żywo przypominają teologiczne Spekulacje.

Wyłania się przy tej okazji zagadnienie statusu moralnego wirtualnych umysłów. Jak np. miałby się zachowywać pracodawca wobec komputerowych, acz świadomych współpracowników-botów? Pojawia się też kwestia tzw. zbrodni przeciwko umysłom - SI mogłaby w ułamku sekundy unicestwić całe wirtualne światy zaludnione przez biliony świadomych, choć symulowanych, istot. To, że będą właśnie symulowane, nie ma żadnego znaczenia, skoro ich cierpienie 1 świadomość niczym się nie będą różnić od tych "oryginalnych" i rzeczywistych.

Choć książka Bostroma nie jest łatwa, warto przez nią przebrnąć. Da się z niej wyłowić sporo informacji dotyczących problematyki związanej z projektowaniem SI. Po drugie, szwedzki filozof uświadamia liczne zagrożenia, jakie wiążą się ze stworzeniem i uruchomieniem SI. Po trzecie zaś, szkicuje możliwe sposoby zapobieżenia ewentualnej katastrofie.

Niestety, niewiele jednak dowiemy się z książki o konkretach dotyczących SI, bo w tej chwili nie mamy pojęcia, czym to ?coś" miałoby być. Gdybyśmy ograniczyli się do twardych faktów, a więc współczesnego stanu prac nad SI, okazałoby się, że jak dotąd niewiele udało się osiągnąć. Bostrom pisze np. o symulowaniu ludzkiego mózgu czy wręcz przeniesieniu indywidualnej świadomości do komputera, ale przy okazji sam zauważa, że obecnie nie jesteśmy nawet w stanie symulować najprymitywniejszego układu nerwowego nicienia Caenorhabditis elegans, który składa Się zaledwie z 302 neuronów (dla porównania: mózg mrówki jest złożony z ok. 250 tys. komórek nerwowych, a człowieka - 100 mld). Nie wiemy też, kiedy miałaby się pojawić maszyna choćby dorównuj ąca inteligencją człowiekowi - przytaczane przez autora szacunki, które przyj -mu ją wysokie prawdopodobieństwo tego przełomowego odkrycia na lata 2050-2100, wydają się wróżeniem z fusów. 

Polityka Michał C. Kacprzak; 2017-03-15


IQ 6455

W przeciwieństwie do inteligencji, która niejedno ma imię, definicja superinteligencji jest jedna: to "każdy umyst, który pod względem zdolności poznawczych znacznie przewyższa człowieka w każdej dziedzinie". Gdy w potowie XX w. pojawiły się pierwsze komputery, uczeni wieszczyli, że w ciągu 20 lat mózgi elektronowe dorównają inteligencją człowiekowi. Czas mija, postęp technologiczny się dokonuje, a proroctwo pozostaje niespełnione. Wprawdzie przed 20 laty komputer Deep Blue pokonał Garriego Kasparowa, ale umiejętność gry w szachy to tylko mały wycinek inteligencji. Mimo to szwedzki filozof Nick Bostrom wybiega znacznie dalej w przyszłość. Książka oparta jest na założeniu, że tzw. eksplozja inteligencji i pojawienie się superinteligentnych maszyn są nieuniknione. Tego autor jest pewien. Reszta rozważań, analiz i wniosków zawartych w tym popularnonaukowym eseju z pogranicza SF opatrzona jest wielkim znakiem zapytania. Bostrom snuje rozważania na temat dróg wiodących ku superinteligencji, jej rodzajów, dynamiki i mocy, a wreszcie zagrożeń ze strony superinteligentnego bytu i sposobów ochrony przed ich konsekwencjami, głównie przed zagładą ludzkości. Niewykluczone, że superinteligencja osiągnie gigantyczny poziom, tyle razy przewyższający inteligencję człowieka, ile razy ta jest większa od inteligencji dżdżownicy. Bostrom podaje jej przykładową wartość: iloraz inteligencji (IQ) równy 6455 punktom, przy przeciętnych 100 punktach człowieka. Taki nieokiełznany superin-teligentny byt mógłby, dążąc np. do rozstrzygnięcia hipotezy Riemanna, wywrócić wszechświat do góry nogami. Książki nie czyta się łatwo, ale jej zaletą są wnikliwe i ciekawe, choć kontrowersyjne, rozważania wsparte obszerną bibliografią.

Wiedza i Życie MAREK PENSZKO


Sztuczna inteligencja (Artificial Intelligence, AI) oraz transhumanizm ponownie są w modzie. I coraz częściej dyskutowane na poważnie – jako jedne z najważniejszych składowych dalszego rozwoju ludzkości. Warto te zagadnienia poznać.

„Superinteligencja...” świetnie się do tego nadaje. Napisał ją Nick Bostrom, szwedzki filozof kierujący prestiżowym Instytutem Przyszłości Ludzkości na Uniwersytecie Oksfordzkim. Bostrom zebrał w jednym miejscu wszystko, co o aktualnym stanie transhumanistycznych debat wiedzieć należy. Tekst wyszedł gęsty i nie udaje, że temat to kaszka z mleczkiem strawna dla każdego przedszkolaka. Z drugiej jednak strony autorowi udało się nie utracić kontaktu z czytelnikiem. Który nawet jeśli momentami nie wszystko pojmuje, to nie ma wrażenia, że został przez Bostroma porzucony.

„Superinteligencja” jest skonstruowana przejrzyście. Zaczynamy od zapoznania się z aktualnym stanem badań. I od razu dostajemy odpowiedź na kluczowe pytanie: nie, Amerykanom, Niemcom, Japończykom ani Chińczykom nie udało się jak dotąd stworzyć sztucznej inteligencji. Owszem, istnieją maszyny, które przewyższają człowieka w zdolnościach arytmetycznych, umieją wyprowadzać skomplikowane twierdzenia logiczne albo ograć ludzi w szachy i warcaby (choć w pokera już nie). Ale jak na razie nikomu nie udało się zbudować niczego, co by przypominało ludzką inteligencję, która potrafi łączyć rozbudowane umiejętności poznawcze, myślenie na wysokim poziomie abstrakcji i zdolność do rozwiązywania złożonych problemów.

Jednocześnie Bostrom stawia tezę, że jest wysoce prawdopodobne, że jeszcze w tym stuleciu taką superinteligencję uda się zbudować. Dlaczego? Bo jest to cel, do którego wiedzie nie jedna, tylko przynajmniej kilka niezależnych dróg. AI może bowiem przybrać różne formy. Może być superkomputerem, który dzięki stałemu rozwojowi potencjału obliczeniowego będzie w stanie rozwiązywać coraz bardziej złożone problemy. Ale to tylko jedna z dostępnych form. Inną jest tzw. emulacja mózgu. Czyli tak dokładne odwzorowanie mapy neuronowej człowieka, że uda się ją wreszcie zreplikować, a potem udoskonalać (człowieka też teoretycznie można by udoskonalać, ale stoją temu na drodze wątpliwości natury moralnej). Jeszcze inny pomysł na budowę superinteligencji to jakaś forma szerokopasmowej współpracy komputera z ludzkim umysłem. Coś na wzór stosowanych już dziś w medycynie sposobów na radzenie sobie z niektórymi chorobami poprzez mechaniczne drażnienie konkretnych partii mózgu w celu uzyskania pożądanych efektów. Można sobie wreszcie wyobrazić rodzaj superinteligencji kolektywnej. Czyli łączenie wielu ludzkich umysłów w jeden. Notabene ten ostatni pomysł wydaje się najmniej przerażający i w pewnym sensie stanowi rozwinięcie takich wynalazków jak druk czy internet.

W drugiej części książki dostajemy z kolei opis możliwych skutków wynalezienia AI. Bo jak słusznie zauważył kiedyś brytyjski geniusz matematyczny Alan Turing: „Trzeba zdawać sobie sprawę, że opracowanie przepisu na superinteligencję będzie jednocześnie ostatnim wynalazkiem, jakiego dokona ludzkość”. Supermózg zacznie wszak tak dalece górować nad naszymi mózgami, że zostawi je daleko w tyle. Idzie tu nie tylko o to, by zabezpieczyć się na wypadek, gdyby superinteligencja miała się urwać ze smyczy swojemu stwórcy. To wszak problem od dawna napędzający sporą część literatury futurologicznej. Jednak nie mniej kluczowe jest pytanie, jak podzielić się komercyjnymi i cywilizacyjnymi zyskami postępu, który superinteligencja ze sobą przyniesie? Biorąc pod uwagę społeczną historię ludzkości (a zwłaszcza kapitalizmu), nie jest to pytanie bezzasadne.

Dziennik Gazeta Prawna


Jeśli inteligencją jest odpowiedzią to jak brzmi pytanie?
Inteligencja to ponoć najbardziej sprawiedliwie rozdzielone dobro na tym świecie- nikt nie skarży się, że dostał jej za mało.  Dobro występujące W takiej obfitości nie ma jednej, zadowalającej i powszechnie akceptowanej definicji.
Na ogół uznaje się, że składa się na nią zdolność do logicznego, abstrakcyjnego myślenia, rozumienia, samoświadomości, komunikowania się z innymi, świadomość emocji, pamięć, przewidywanie, kreatywność, umiejętność rozwiązywania problemów. Choć ludzie  różnią się poziomem inteligencji, próby jej pomiaru oraz wykorzystywanie wyników do celów praktycznych budzą ogromne wątpliwości, jak też kontrowersje natury moralnej czy politycznej. Już choćby dlatego niektóre problemy związane z inteligencją należą do  obszaru tabu.  Z tego też powodu w ostatnich latach podnoszą się glosy ostrzegające przed dalekosiężnymi skutkami badań nad "superinteligencją". W dużym uproszczeniu badania idą w trzech kierunkach. Pierwszy to prace nad sztuczną inteligencją, której nośnikiem byłyby jakieś urządzenia elektroniczne, zapewne wywodzące się ze współczesnych komputerów. Na tej drodze odniesiono już wielkie sukcesy. Pamięci komputerów wielokrotnie przekraczają ludzkie zdolności. Podobnie jest z możliwościami wykonywania w wielkim tempie rutynowych, możliwych do zalgorytmizowania operacji. Wciąż jednak nawet małe dziecko czy niewykształcona osoba góruje nad komputerami inteligencją emocjonalną (komputery jeszcze nie potrafią się zakochać) i zdolnościami do abstrakcji (na przykład zabezpieczenia typu captcha - odczytywanie treści z obrazka). Jak daleko można będzie jeszcze zajść? Komputer Deep Blue pokonał już arcymistrza Garriego Kasparowa. Czy jednak całość naszego myślenia jest algorytmiczna? Wydaje się, że nie. Być może komputery nigdy nie prześcigną ludzi. Nawet jeśli będziemy dążyć do "emanacji mózgu", czyli -w uproszczeniu - do skopiowania mózgu. Drugi kierunek to poprawianie ludzkiej inteligencji. Wszyscy pewnie zetknęliśmy się z technikami szybkiego czytania, szybkiego uczenia się (zwłaszcza języków obcych) czy robienia kilku rzeczy naraz. Miliony ludzi na całym świecie połykają tony pigułek na poprawę koncentracji, pamięci, szybkości myślenia. Choć jest oczywiste, że odpowiednia edukacja i wychowanie poprawiają nasze funkcjonowanie (co możemy odbierać jako powiększoną inteligencję), mamy tu raczej do czynienia z dorastaniem do naturalnego poziomu, a nie zwielokrotnieniem mocy wynikających z inteligencji. Nie wydaje się, by w czasach historycznych średnia inteligencja ludzi znacznie się podniosła. Pitagoras nie był mniej inteligentny od współczesnych matematyków. Współcześni korzystają z tego, że "stoją na ramionach gigantów", że korzystają z kumulacji wiedzy. Trzeci kierunek w dążeniu do superinteligencji obejmuje rozwój interfejsów mózg-komputer. Za najprostsze tego typu rozwiązania można uznać na przykład programy rozpoznające ludzką mowę czy zamieniające skan odręcznego pisma w plik cyfrowy. Znacznie bardziej skomplikowane są urządzenia pomagające niewidomym poprzez sprzężenie elektroniki bezpośrednio z mózgiem. Choć ów kierunek jest dopiero w powijakach, niewykluczone, że właśnie on przyniesie zaskakujące sukcesy. Przekonanie, że żyjemy u progu rewolucji w pracach nad superinteligencją, sprawia, że wielu znanych, jak też wybitnych myślicieli ostrzega przed trudnymi do przewidzenia Nick Bostrom skutkami. Niedawno tego typu przestrogi ogłosił Stephen Hawking. Wcześniej - Max Superinteligencją Tegmark i wielu innych. Przestrogi związane są z kilkoma różnymi zagrożeniami. Od Scenariusze, strategie, zagrożenia "buntu robotów" po społeczne konsekwencje. O ile "bunt robotów wydaje się czystą fantazją, o tyle wywołane superinteligentnymi urządzeniami skutki, takie jak masowe bezrobocie, wydają się całkiem realne. Podobnie jak całkiem realne jest zagrożenie, że metody poprawiania inteligencji czy to metodami farmakologicznymi, czy technicznymi Nick Bostrom Scenariusze, (interfejsy mózg-komputer) będą dostępne wyłącznie dla nielicznych uprzywilejowanych". Superinteligencja. Scenariusze, strategie, zagrożenia dotyczy tych wszystkich problemów. Nick Bostrom jest profesorem na wydziale filozofii uniwersytetu w Oksfordzie, założycielem i kierownikiem Instytutu Przyszłości Ludzkości. Znane są jego prace na temat transhumanizmu - dziedziny badającej możliwości przezwyciężania naturalnych ludzkich ograniczeń poprzez wykorzystanie zdobyczy nauki i techniki. Autor rozwija swoją opowieść wokół popularnej w latach sześćdziesiątych ubiegłego wieku tezy (głoszonej wtedy przez czołowych badaczy sztucznej inteligencji, Marana Minskyego i Johna McCarthyego), że jeśli obdarzony sztuczną inteligencją byt zdoła sam poprawić projekt, według którego powstał, wówczas poprawiona wersja będzie jeszcze inteligentniejsza. Powinno to uruchomić reakcję łańcuchową, prowadzącą do powstania superinteligencji. Bostrom przedstawia i omawia trzy drogi do superinteligencji. Pierwsza wiedzie do połączenia i rozwoju obecnych technologii: uczące się maszyny, sztuczne sieci neuronowe, ewolucyjne programowanie itp. Druga prowadzi do emulacja mózgu. Nie musielibyśmy zrozumieć, jak działa mózg. Po prostu byśmy go skopiowali, zyskując swoistą nieśmiertelność. Trzecie podejście, hybrydowe, polegałoby na częściowym emulowaniu fragmentów "uśrednionego ludzkiego mózgu" i uzupełnieniu go elementami elektronicznymi. Jak przystało na filozofa, autor sporą część książki poświęca społecznym konsekwencjom powstania superinteligencji. Podziela zdanie wielu badaczy, że sytuacja może się wymknąć spod kontroli i superinteligentne byty mogą stanowić bezprecedensowe zagrożenie. Utrzymanie nad nimi nadzoru też nie rozwiązuje problemu. Wprowadzi bowiem podział na tych, którzy do superinteligencji mają dostęp oraz tych, którzy będą go pozbawieni. Książka Bostroma jest niezwykle gęsta, pełna naukowych terminów i faktów. Stanowi zapewne najpełniejszą w ostatnich latach opowieść o sztucznej inteligencji. A jednak nie znajdziemy w niej rozwiązania problemu: jeżeli inteligencja jest ewolucyjną odpowiedzią, jak brzmi pytanie? Mózg stanowi jedynie nośnik inteligencji. Rozróżnijmy umysł i jego mózg. Wydaje się, że łatwiej będzie zrozumieć działanie mózgu, niż do końca zrozumieć, czym jest umysł, a czym inteligencja. ?

Nowe Książki Stanisław Bajtlik


Biorąc pod uwagę niesamowity postęp technologiczny, którego ludzkość doświadcza od kilku dekad, rozważania o powstaniu maszyn przewyższających nas inteligencją nie powinny dziwić. Podstawowe pytania w tych rozważaniach brzmią: „czy i kiedy?” oraz „z jakim skutkiem?” Szwedzki filozof, profesor na Uniwersytecie Oksfordzkim, przywołuje szacunki wiodących badaczy sztucznej inteligencji: z 90% prawdopodobieństwem, AI pojawi się między 2075 a 2090... i jak przekonuje autor, będzie to najprawdopodobniej początek poważnych kłopotów ludzkości.

THINKTANK


Będziemy mieli tylko jedną szansę. Kiedy już uda się nam pokonać wcale niemałe trudności i stworzymy maszynę, która będzie naprawdę inteligentna, to wówczas dojdzie do "eksplozji inteligencji". Samoucząca się maszyna przewyższy swoimi zdolnościami jakiegokolwiek żyjącego człowieka. Stracimy nad nią kontrolę i rozpocznie się era superinteligentnych robotów. Będzie to z jednej strony oznaczało drastyczną zmianę tempa wzrostu, porównywalną z rewolucją neolityczną czy przemysłową. Ale będzie to też koniec dominacji człowieka. Zdaniem Bostroma, szwedzkiego filozofa, wpływowego profesora Oksfordu, to prawdopodobnie najważniejsze wyzwanie, z jakim do tej pory mierzyła się ludzkość. Temat jest trudny, bo stąpamy po gruncie, na którym cały czas więcej jest domysłów i spekulacji. To raczej ćwiczenie logiczne z dużą dawką technologu. Bo dziś nawet nie bardzo wiadomo, jak stworzyć superiteligencję czy "osobliwość", jak ją nazywają inni. Czy zbudować potężną maszynę obliczeniową, która przy prostych danych wejściowych powtórzyłaby działania ewolucji prowadzące do zaistnienia ludzkiej inteligencji? Czy też, jak chciał przed laty Alan Turing, spróbować stworzyć program symulujący umysł dziecka, a potem wyedukować go. Można też ze skanować umysł dorosłego i odtworzyć każde połączenie, tworząc pełną siatkę zależności. Książka jest fascynująca. My może tego nie zauważamy, ale komputer wygrywa już z nami w szachy, warcaby, scrabble czy jako uczestnik programu "Va Banąue" Superinteligencja naprawdę się zbliża.

Wprost Grzegorz Sadowski; 2016-06-20


Przekraczanie granic
Jak będzie wyglądać świat, jeśli sztuczna inteligencja stanie się dominującą formą "życia" na Ziemi? Czy człowiek będzie niepotrzebny? Ludzki mózg jest uważany za cud biologii. Jednak gdy w 1997 roku komputer Deep Blue pokonał w szachy mistrza świata Garriego Kasparowa, doceniliśmy potencja! sztucznej inteligencji (Al). Wyobraźmy sobie, że jesteśmy w stanie stworzyć program sprytniejszy od najinteligentniejszego człowieka. Czy doprowadzi to do zagłady naszego gatunku? A może będziemy w stanie podbić catą galaktykę? - na te i podobne pytania odpowiedzi szuka Nick Bostrom, szwedzki filozof, profesor Uniwersytetu Oksfordzkiego. Jego analizy są interesujące nie tylko dla fanów science fiction i futuryzmu, ale dla wszystkich, których ciekawią scenariusze przyszłości - a te przedstawione w Superinteligencji chwilami mrożą krew w żytach. Bostrom skłania do refleksji nad możliwymi konsekwencjami rozwijania Al oraz pokory wobec złożoności problemów, które musimy rozwikłać, nim pojawienie się sztucznej inteligencji przewyższającej ludzką stanie się możliwe. Przemyślmy nasze dążenie do przekraczania granic człowieczeństwa - pozwoli nam to lepiej przygotować się na przyszłość, która nas czeka...

Charaktery Elżbieta Filipow


Ludzki mózg to dzieło idealne, najdoskonalszy twór w przyrodzie. Jego dominacją zachwiał komputer Deep Blue, który w 1997 r. pokonał w szachach mistrza świata, Garriego Kasparowa. Od tego czasu sztuczna inteligencja znajduje się na ścieżce intensywnego rozwoju. Czy dominacja superinteligencji nad człowiekiem jest realną perspektywą naszej przyszłości? Czy ta przewaga skończy się kresem ludzkiego gatunku? Książka jest próbą znalezienia odpowiedzi na te pytania. Możliwe kierunki rozwoju technologii cyfrowej i jego konsekwencje są trudne do przewidzenia, a rozstrzygnięcie związanych z tym kwestii jest prawdziwym intelektualnym wyzwaniem. Niemniej z niektórych szans i zagrożeń powinniśmy wszyscy zdawać sobie sprawę. Autor stara się jasno i klarownie przedstawić przyszłe konsekwencje coraz większego udziału maszyn w naszym życiu, opisuje możliwe komplikacje i strategie rozwiązania ewentualnych problemów.

Personel Plus