Sztuczna inteligencja i fizycy

Zrobiła się jakaś moda na wypytywanie fizyków o sztuczną inteligencję. Czemu mieli by mieć na ten temat jakieś rozsądne zdanie? Mechanizm jest prosty: przeczytali Penrose’a, który pisze o ograniczeniach sztucznej inteligencji zupełnie się na tym nie znając, Hawking powiedział to samo, no i nasi fizycy wkoło to powtarzają. Według nich programy muszą postępować zgodnie z algorytmem więc są ograniczone do poziomu kombinatorycznego sprawdzania wszystkich możliwości. Deep Blue nie potrafiła dostrzec prostych rozwiązań, które widzi początkujących szachista a żaden program nie zrozumie sensu paradoksu kłamcy:  wszyscy ludzie kłamią.  Skoro tak, to program musiałby rzekomo sprawdzać wszystkie możliwości. To by znaczyło, że sztuczna inteligencja nie może z jakichś fundamentalnych przyczyn poradzić sobie z paradoksami i tylko człowiek potrafi spojrzeć z meta-poziomu na tego typu problemy.

Z wielu względów takie poglądy są naiwne i oparte na ignorancji. Warto zajrzeć do klasycznego podręcznika Norviga i Russela  “AI, a modern approach”, sekcja 26.3, gdzie kwestia paradoksów jest dyskutowana. Ponad 30 lat problem radzenia sobie z takimi paradoksami został rozwiązany, ale takie zabawy logiczne są dalekie od centrum zainteresowań badaczy sztucznej inteligencji. Problemem nie jest logika – komputery nas w tym łatwo przegonią, co widać choćby po zawodach w automatycznym dowodzeniu twierdzeń matematycznych,
https://en.wikipedia.org/wiki/Automated_theorem_proving

Problemem jest połączenie percepcji, analizy sygnałów, wyobrażenia świata jako miejsca działania fizycznego systemu, który nabiera przez obserwację skutków swojej aktywności głębszego rozumienia sensu pojęć. Z samych tekstów nie można się nauczyć wszystkiego o świecie i przejść test Turinga oszukując w czasie rozmowy człowieka, że się nie jest maszyną. Można się do tego jedynie zbliżyć i przekonać naiwnych, oszustwo jednak w końcu wyjdzie na jaw, chociaż nie każdy je od razu zobaczy. Systemy uczące się i sterowane przez dane to nie maszyny Turinga sterowane przez algorytm, chyba że ma się na myśli algorytm opisujący działanie całego świata, łącznie ze wszystkimi ludźmi którzy z takim systemem będą się stykać. Taki algorytm na szczęście nie istnieje.

Wniosek z tego prosty: media wypytują każdego o wszystko a ludzie, którzy nie przeczytali żadnego podręcznika z danej dziedziny mają tendencję by dawać odpowiedzi powołując się na podobnych sobie kolegów, tylko nie co sławniejszych. Ale to, że ktoś jest wybitnym fizykiem czy matematykiem nie oznacza, że cokolwiek wie o mózgu czy sztucznej inteligencji. Pierwsze pytanie, które dziennikarze powinni zadawać, to pytanie o kompetencje: na czym opiera Pani/Pan swoje poglądy? No jak to – na tym co przeczytałem w waszej gazecie …

About wduch

Google: W. Duch
This entry was posted in Kognitywistyka, Sztuczna Inteligencja. Bookmark the permalink.

10 Responses to Sztuczna inteligencja i fizycy

  1. JD says:

    Dlaczego nikt nie traktuje poważnie argumentów Penrose, że świadomość wymaga procesów nieobliczalnych? Czy jest udowodnione, iż równania różniczkowe opisujące aktywność neuronów mają obliczalne rozwiązania?

    • wduch says:

      Równania opisują dobrze aktywność neuronów, są szczegółowe symulacje zgadzające się z pomiarami, computational neuroscience ma się dobrze i nie widać tu problemu. Argument Penrose’a nie jest dla ludzi od neuroscience interesujący, podobnie jak inne argumenty dotyczące twierdzenia Goedla. Po pierwsze mózg to nie jest system formalny oparty na aksjomatach, do którego odnosi się tw. Goedla. Po drugie, nawet jeśli komputer nie może rozstrzygnąć pewnych pytań dotyczących jego szczegółowej specyfikacji to i my nie możemy odpowiedzieć na pytania dotyczące specyfikacji swojej aparatury poznawczej, czyli mózgu. Mamy dużo większe ograniczenia, wynikające choćby z pojemności naszej pamięci roboczej. AI robi ostatnio naprawdę postępy i nie widać jakie ograniczenia maiły by wynikać z argumentów Penrose’a.
      Były lepsze książki postulujące ograniczenia AI, np. H. Dreyfus “What Computers Cant Do” (MIT Press 1972), cały tekst
      https://archive.org/stream/whatcomputerscan017504mbp/whatcomputerscan017504mbp_djvu.txt
      ale ta krytyka też się nie stosuje do dzisiejszych badań, poszły w całkiem inną stronę.

  2. olek says:

    Pańskie poglądy też są naiwne .
    W swojej introspekcji dotarł Pan do “Ja” i rozbił się o ścianę ,mam na myśli szereg spekulacji jakie Pan sobie zafundował.
    Pisze Pan że myśli przychodzą nam do głowy a my spośród tych myśli wybieramy co nam Pasuje.
    Kto to jest My?
    Wybieramy spośród takich losowych myśli jak nie mamy nic do roboty,ale jeżeli jest konkretny plan działania to takie myśli znikają.Robiąc kupę w łazience mam czas na zaplanowanie sobie następnego działania,z pana spekulacji można wysnuć wniosek że to nie Ja planuję a robi to coś nad czym nie panuję ,czyli co?
    Mogę też robić kupę lub ruszać palcem itp nie mając żadnego planu i nie myśląc ,po prostu jestem skupiony na tym co się dzieje,mogę przestać robić kupę jak i przestać ruszać palcem,z pana spekulacji dalej wynika że to nie Ja zdecydowałem ,więc co?
    To są takie bzdurki o których można pisać do końca życia i nic z tego nie wynika.
    Tak jak napisałem wyżej rozbił się Pan o ścianę Samoświadomości! która nazywa się Ja.
    Mało tego uciekł Pan z pola bitwy i ukrył się w bezsensownych spekulacjach.
    Dotarł Pan do tego punktu i nie ma pojęcia co z tym zrobić,bo jak to i co to może być że Jestem i wiem że jestem.Nie jestem wierzący i nie wierzę w duchy , po prostu nie rozumie pan Umysłu,rozumie pan to na co każdy myślący człowiek może sam wpaść obserwując głęboko siebie.
    Jednym słowem zbadał pan niewiele.

    • wduch says:

      Trudno mi odpowiadać na takie uwagi – na blogu nie prowadzę wykładu, odpisuję tu po to by lepiej zrozumieć, czego nie udało mi się wytłumaczyć.
      Są tu przynajmniej dwie możliwości:
      1) czytelnik ma w głowie swoje silne przekonania, nie przeczyta co mu polecam, za to zarzuci mi niekompetencję i odpłynie zadowolony bo nie ma to jak przyłożyć staremu profesorowi, od czego jest Internet;
      2) czytelnik przeczyta co mu polecam i skrytykuje moje argumenty – wtedy możliwa jest poważna dyskusja, która i mnie się przyda.

      Nie uciekłem z żadnego pola bitwy, mam poczucie, że rozumiem o czym mówię i planuję weryfikację eksperymentalną hipotez z tego wynikających. Pisałem wielokrotnie w notatkach do wykładu czym jest “ja” i jak w mózgu zachodzą procesy z tym związane, ale przecież nie będę tu wykładu powtarzał. Blog jest do odpowiedzi na konkretne pytania i nie zastąpi wykładu.
      Co planuje jeśli nie ja? Oczywiście mózg, kontrolujący zarówno procesy związane z reprezentacją “ja” jak i cały organizm.
      Co wybiera – oczywiście mózg, chociaż nie zawsze są to procesy związane z ja, co najlepiej wiedzą psychiatrzy stykający się z przypadkami depersonalizacji. Jak to się odbywa? Mówię o tym na wykładzie “Przepływ informacji w mózgach”.
      Dobre pytanie to “po co mózgowi ‘ja'”, ale i na to są dobre odpowiedzi.
      Polecam więc przeczytać chociaż te fragmenty moich notatek i odnieść się do przedstawionych tam argumentów:
      10.2. Świadomość potraktowana neurofilozoficzne
      http://www.is.umk.pl/~duch/Wyklady/Kog1/07-filn1.htm#sum
      B10.3 Ja w mózgu
      http://www.is.umk.pl/~duch/Wyklady/Kog1/15-wola.htm#ja
      Bez tego naprawdę nie mamy o czym mówić.

      • Marek Sokołowski says:

        Panie, profesorze,
        Z góry przepraszam za moją niekompetencję, ale nie dysponuję na co dzień czasem aby zajmować się tymi ciekawymi, acz bardzo złożonymi problemami, które jednak zwróciły moją uwagę. W okresie świątecznym, mając trochę czasu zapoznałem się (przyznaję dość pobieżnie) z twierdzeniem o niezupełności Godla i tak się zastanawiam, czy ideologicznie możliwe jest stworzenie AI podobnego do człowieka posługującej się jedynie logiką? Wydaje mi się, że w przypadku ludzi może funkcjonować jakiś jeszcze mechanizm, którego nie rozumiemy, bo gdybyśmy byli tzw. mokrym komputerem i posługiwali się tylko logiką to wydaje się, że twierdzenie Godla implikuje, że nie bylibyśmy w stanie odpowiedzieć na wiele pytań, na które jednak odpowiadamy. Być może nie rozumiem dobrze konsekwencji tego twierdzenia lub też poznaliśmy już mechanizmy poza logiką, które są niezbędne do wytworzenia AI podobnej człowiekowi, ale są inne problemy nie pozwalające zaaplikować ich w konkretnej maszynie i jej oprogramowaniu. Jeszcze raz przepraszam za swoją ignorancję w temacie i proszę o Pana spojrzenie na tę kwestię. Pozdrawiam Marek Sokołowski

      • wduch says:

        Na pewno nie i wiemy to przynajmniej od 1994 roku, czyli zakończenia projektu japońskiego budowy komputerów V generacji. To co obecnie się próbuje robić w AI to nie maszyna Turinga z ustalonym algorytmem, ale maszyny uczące się, które – jak nasze mózgi – nie mają ustalonego algorytmu. Nasz algorytm uczenia jest w DNA i w prawach fizyki, np. regule Hebba, neurony współpracujące wzmacniają swoje połączenia. Nieprzewidywalność świata powoduje jednak to, że uczymy się różnych rzeczy, chociaż jesteśmy na wiele sposobów ograniczeni przez budowę swoich mózgów. Twierdzenie Gódla opisuje systemy formalne, oparte na niesprzecznych aksjomatach. Nie da się go zastosować nawet do systemów regułowych, bo opierają się na wiedzy zdobywanej od użytkownika a to nie jest zbiór formalnych niesprzecznych aksjomatów. Ludzie pracujący w AI naprawdę nie widzą problemów Goedlowskich, mają za to wiele innych.
        Napisałem o tym już sporo i tu na blogu i w notatkach do wykładu.
        Co do roli emocji w procesach rozumowania polecam “Błąd Kartezjusza” Antonio Damasio.

  3. Jonatan K says:

    Bardzo ciekawy wpis. Rozumiem ze problemem jest stworzenie programu/komputera ktory posiada wlasny zlozony obraz swiata (Lebenswelt). Antropologia spoleczna od kilku dekad jest na fali tz. “ontologicznego zwrotu”, badajac i opisujac jak rozne moga byc ludzkie ontologie [antropolodzy czesto uzywaja terminy “ontologia” jako wlasnie tego systemu wyobrazenia swiata]. Wiekszosc tych prac wskazuje na roznorodnosc i wielosc systemow tlumaczenia egzystencji i swiata, samych w sobie logicznych i spojnych ale przyjmujacych inne zalozenia bazowe. Zaprogramowanie wyobrazni i ciekawosci, mitologii i prob odpowiedzi na egzystencjalne pytania, w taki sposob by nie byly on tylko obrazem ontologii programisty, faktycznie wydaje sie niemozliwe albo szalenie trudne.

    W kwestii testu Turinga, jestem bardzo ciekawy jaka jest Pana odpowiedz na problem ktory czesto przywoluje Jaron Lanier:
    “But the Turing test cuts both ways. You can’t tell if a machine has gotten smarter or if you’ve just lowered your own standards of intelligence to such a degree that the machine seems smart.”
    A wiec test Turinga jest w pelni zalezny od osoby go przeprowadzajacej? Jesli problemem AI sa kwestie ontologiczne, moze to antropolodzy spoleczni powinni przeprowadzac takie testy?🙂

    • wduch says:

      Z pewnością naiwni obserwatorzy (np bot Eugene Goostman rok temu nabrał 1/3 sędziów) skłonni są przyjąć nawet słabe boty za inteligentne istoty, dlatego pisałem, że oszustwo może nas zaprowadzić dość daleko ale wyjdzie w końcu na jaw. Dostrzegą je wszyscy inteligentni ludzie, bo nie da się wszystkich faktów o świecie wpisać w bazę wiedzy bota – to właśnie robi projekt CyC (cyc.com) od 1984 roku, ma miliony wpisanych faktów, w wąskich dziedzinach ma mikroteorie i jest przydatny. Jednak są tu bardziej podstawowe braki dotyczące “ontologi podstawowej”, niż te, którymi zajmuje się antropologia kulturowa, a więc posługiwanie się pojęciami, które są dla wszystkich oczywiste. Jeśli moja lewa noga jest w Polsce to w jakim kraju jest moja prawa noga? Jak daleko jest moja lewa stopa od prawej – metr a może kilometr? Bot tego nie wie bo nie ma modelu swojego ciała. Bot skacze z tematu na temat by wykorzystać krótki czas i sam zadawać pytania do których ma zakodowane uwagi. Wystarczy więc by sędziami było paru dociekliwych.
      Mam nadzieję, że w ramach cyfrowej humanistyki (np. projektu DARIAH) uda się lepiej opisać ontologie kultur i subkultur, czy jak to sam nazywam lokalne wizje natury ludzkiej i świata, dzięki czemu antropolodzy społeczni rozszerzą nieco horyzonty naszej kultury.

      • Jonatan K says:

        To sa fascynujace problemy filozoficzne i (jak najbardziej) antropologiczne. Jaka bylaby ontologia komputera? Czy komputer moglby miec zdefiniowana koncepcje swojego “ciala” czy tez bylaby to koncepcja zmienna? Jaka bylaby koncepcja ciala komputera podlaczonego do sieci lokalnej albo do internetu? Antropologia czesto zadaje pytania dotyczace ciala ludzkiego, jego granic (czy jest to skora, ubranie, czy moze operowane narzedzie jako przedluzenie ciala?). Jakie sa relacje miedzy radykalnie innymi cialami (human and non-human animals). Czy AI rozumialo by swoje cialo jako software czy jako hardware? A moze jako siec elektryczna? Poprzez radykalnie inne “cialo” mozna tylko zalozyc ze AI mialoby zupelnie inna ontologie.
        Problem swiata jest rownie fascynujacy. Wizje swiata moga byc radykalnie rozne (np. Eduardo Viveiros de Castro opisywal ontologie w ktorych zalozeniem podstawowym jest wielosc swiatow i jednosc kultury, w kontrascie do znanej nam ontologii zakladajacej jednosc fizycznego swiata i wielosc kultur). Jesli zakladamy ze AI byloby autonomicznym bytem, to jaki ontologiczny system by wypracowal? Czy AI w kontakcie z innym AI wypracowaloby autonomiczna kulture?

        To wszystko brzmi jak bardzo ciekawy film sci-fi. Jesli jednak uda sie stworzyc AI ktore jest autonomicznym bytem z wlasnym systemem ontologicznym, to jako antropolog, bylbym szalenie zafascynowany.🙂

      • wduch says:

        Nie mieliśmy pojęcia o tym co mamy w środku – do tej pory większość ludzi nie wie po co im np. grasica. Model wewnętrzny powinien nas informować nie o tym czy jesteśmy z gleju i neuronów ale o tym co możemy zrobić w świecie, jakie będą tego skutki i jak to się ma do naszych celów.
        W Europie jest silny nurt robotyki rozwojowej, próby zbudowania robota, który nie jest zaprogramowany tylko uczy się, np. sporo jest na Youtube wideo z robotem iCube, raczkującym, bawiącym się, wykazującym emocjonalne reakcje. Dopiero dzięki interakcjom z innymi taki robot może wytworzyćsobie system pojęciowy i w końcu wyobrażenie “ja”. Próby wypracowania autonomicznej kultury są już podejmowane, np. Luc Steels w Sony (Experiments in Cultural Language Evolution, 2012), mieliśmy też na UMK konferencję na temat protojęzyka. Robiono to za pomocą zbyt prymitywnych robotów by rezultaty były ciekawe dla antropologów, ale idziemy w tym kierunku.
        Niestety na antropologię kulturową nie mam na wykładzie wiele czasu, ale o “zwrocie ontologicznym” wspominam na końcu tego wykładu:
        http://www.is.umk.pl/~duch/Wyklady/Kog1/08-ewo1.htm

Zostaw odpowiedź

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s