Celem konferencji jest analiza różnych rodzajów substratów możliwych do wykorzystania jako podstawa działania systemów AI. Współcześnie, oprócz klasycznych układów krzemowych (procesory CPU, GPU), stosuje się układy wzorowane na ludzkich mózgach (chipsety neuromorficzne, np. IBM TrueNorth, Intel Loihi), a także procesory fotonowe, które wykorzystują światło do przesyłania i przetwarzania danych, co pozwala na superszybkie i energooszczędne przetwarzanie informacji. Wielkie nadzieje wiąże się z substratami kwantowymi. Komputery kwantowe (np. D-Wawe, IBM-Q) działają na kubitach wykorzystując takie efekty kwantowe, jak superpozycja i splątanie. Rozważa się substraty biologiczne, w formie żywych neuronów hodowanych na chipach (wetware), i hybrydowe (biosyntetyczne), łączące żywą tkankę z elektroniką. Prowadzone są badania nad AI w środowiskach wirtualnych istniejących w chmurze rozproszonej na wielu serwerach. Każdy z tych substratów ma inne właściwości, np. plastyczność, energochłonność, prędkość przetwarzania, trwałość, co wpływa na rodzaj i potencjał inteligencji, którą można na nim stworzyć.
Poszukujemy odpowiedzi na pytania: Czym są substraty sztucznej inteligencji? Jakie są podobieństwa i różnice między inteligencją biologiczną oraz budowaną na substratach pozabiologicznych i mieszanych? W jaki sposób natura substratu ogranicza możliwości budowanej na nim inteligencji? Czy inteligencja jest w jakimś sensie niezależna od substratu?
Odpowiedzi na powyższe pytania poszukujemy w interdyscyplinarnym gronie fizyków, informatyków, kognitywistów, biologów, robotyków i filozofów.
23 maja
Sala Feniks UCKiN (Kampus UwB)
Fizyczne substraty systemów AI
10.00 – 11.00
Robert Poczobut (UwB) – Systemy inteligentne i ich substraty
11.00 – 12.00
Krzysztof Sołoducha (WAT) – Dwa tryby przetwarzania informacji w głębokich
sieciach neuronowych i właściwości systemów inteligentnych. Próba porównania
12.00 – 12.15
Przerwa kawowa
12.15 – 13.15
Paweł Stacewicz (PW) - Naturalizowanie systemów AI jako droga do ich autonomizacji
13.15 – 15.00
Przerwa obiadowa
15.00 – 16.00
Edward W. Piotrowski (UwB) – Kwantowy komputer uniwersalny a sztuczna
inteligencja
16.00 – 16.15
Przerwa kawowa
16.15 – 16.15
Andrzej Zykubek (UMK) – Inteligencja organoidów? Czego mózgowe organoidy mogą
nauczyć się od sztucznej inteligencji?
17.15 – 18.15
Wojciech Głażewski (UwB) – Pojęcie substratu a język opisu fizycznego podłoża
systemów inteligentnych
24 maja
Plac NZS1, sala 108A (od godz. 10.00)
Sesja studencko-doktorancka
Abstrakty:
Paweł Stacewicz (Politechnika Warszawska)
Naturalizowanie systemów AI jako droga do ich autonomizacji
Systemy autonomiczne stanowią najbardziej dalekosiężny cel badań nad sztuczną inteligencją, a szerzej badań nad
maszynami rozwiązującymi problemy w drodze obliczeń. Działanie takich systemów musi cechować
samodzielność i aktywność, a nie tylko wyrafinowany automatyzm. Ich autonomiczność uważam za cechę
stopniowalną, która w odniesieniu do celów systemu może przejawiać się na trzech poziomach (nie wszystkie z
nich zostały już osiągnięte): a) poziomie realizacji celów (gdy system samodzielnie dochodzi do metody
osiągnięcia zadanego mu celu), b) poziomie wyboru celów (gdy system sam określa cele własnych działań), c)
poziomie kryteriów akceptacji celów. Autonomia systemu musi polegać także, podobnie jak w przypadku ludzi,
na budowaniu i utrzymywaniu własnej (niepowtarzalnej) tożsamości.
W swoim referacie zarysuję pewne ścieżki dochodzenia do możliwie pełnej autonomii systemów AI, polegające
na wykorzystaniu obliczeń naturalnych (ang. natural computations). Obliczenia takie dzielą się na: a) inspirowane
obserwacją natury, nie wymagające jednak użycia substratów naturalnych (jak w klasycznych sieciach
neuronowych), b) realizowane w sposób naturalny i zależne w sposób istotny od właściwości pewnych procesów
fizycznych (jak w przypadku obliczeń analogowych, kwantowych czy biomolekularnych). Ścieżka idąca w
kierunku obliczeń typu b jest niewątpliwie interesująca, i może doprowadzić do kolejnego przełomu w badaniach
nad SI, ale wiążą się z nią pewne wyzwania, które już teraz warto identyfikować. Najbardziej ogólne z nich to
efektywna empiryzacja informatyki, która pozostawała przez długi czas nauką formalną (bardziej związaną z
matematyką i logiką niż z naukami empirycznymi). Niezależnie od tego wyzwania program autonomizacji
systemów SI rodzi wiele pytań etycznych, które zasygnalizuję w zakończeniu referatu.
dr Paweł Stacewicz – filozof, informatyk i dydaktyk matematyki. Obecnie pracuje w zespole filozofów na
Politechnice Warszawskiej, na Wydziale Administracji i Nauk Społecznych. Jest autorem trzech monografii
naukowych o tematyce z pogranicza informatyki i filozofii: „Umysł a modele maszyn uczących się” (2010),
„Umysł – Komputer – Świat. O zagadce umysłu z informatycznego punktu widzenia” (2011, wspólnie z Witoldem
Marciszewskim), „Pojęcia jako funkcje decyzyjne. Zagadnienia filozoficzne, metodologiczne i informatyczne”
(2021) oraz redaktorem naukowym kilku monografii zbiorowych z serii „Informatyka a filozofia”. Opublikował
kilkadziesiąt artykułów naukowych z dziedziny logiki, filozofii informatyki, filozofii informacji i kognitywistyki.
W roku 2015 zainicjował cykl konferencji międzynarodowych pt. „Philosophy in Informatics”, które
współorganizuje do dziś. Prowadzi Seminarium Filozofii Nauki na PW
(https://www.youtube.com/playlist?list=PLM-1yNCyvJJASLfK_f_Yf8GCa-9phQixG)
oraz dyskusyjny blog akademicki Cafe Aleph (http://marciszewski.eu/).
Krzysztof Sołoducha (WAT, Warszawa)
Dwa tryby przetwarzania informacji w głębokich sieciach neuronowych
i właściwości systemów inteligentnych. Próba porównania
Gwałtowny rozwój technologii obliczeniowych artefaktów poznawczych w ostatnich latach dokonał się m. in.
dzięki przełomowym odkryciom w zakresie architektur przetwarzania informacji o różnych modalnościach
(języka naturalnego, dźwięku, obrazu i filmu). Takie osiągnięcia, jak: technologia głębokich sieci neuronowych,
sieci konwolucyjnych, tokenizacji oraz osadzania (embedding), modeli podstawowych, mechanizmu uwagi i
architektury transformerów oraz zbudowana na nich technologia modeli generatywnych czy ostatnio architektury
typu jea (joint embedding architecture), nakazują przemyśleć na nowo starą tezę J.D. Boltera o „technologii definiującej”, jako kontekście technologicznym, którego osiągnięcia pozwalają na nowo spojrzeć na systemy poznawcze wytworzone ewolucyjnie, jak na przykład ludzkie systemy poznawcze. Można nawet zaryzykować twierdzenie, że te dokonania stanowią argument na rzecz sformułowanej przez Luciano Floridiego tezy na rzecz uznania teorii informacji za nową filozofię pierwszą. W mojej prezentacji postaram się odnieść do powyżej postawionych hipotez o wadze rozwoju technologii dla rozbudowy wiedzy o systemach biologicznych, a kluczem
do tego będzie sformułowane przez Geoffreya Hintona dystynkcja pojęciowa pomiędzy przetwarzaniem
informacji typu „śmiertelnego” (mortal computing) oraz przetwarzaniem typu „nieśmiertelnego” (immortal
computing) (Hinton 2023). To odróżnienie pozwala na porównanie strukturalnych oraz poznawczych cech
systemów biologicznych i artefaktów obliczeniowych, a z tej perspektywy na zinterpretowanie wyników różnego
rodzaju testów porównawczych, którym w ostatnich latach poddawane były systemy AI.
dr hab. Krzysztof Sołoducha – pracownik Zakładu Nauk Humanistycznych, Wydziału Bezpieczeństwa,
Logistyki i Zarządzania Wojskowej Akademii Technicznej w Warszawie. Studiował filozofię na Uniwersytetach
w Lublinie, Warszawie, Bochum i Londynie. Uzyskał doktorat w Instytucie Filozofii i Socjologii PAN na
podstawie pracy na temat logiki hermeneutycznej Georga Mischa (Życie i wiedza. Georg Misch w poszukiwaniu
postmetafizycznej metafizyki. Warszawa 2008), potem kontynuował pracę nad szkołą logików z Getyngi w pracy
habilitacyjnej (Język i poznanie. O immanentnej kategoryzacji w filozofii Hansa Lippsa. Warszawa 2015). Idąc
za tezą Boltera i Floridiego od 2014 roku zajmuje się filozofią informatyki oraz filozofią informacji. Wydał w
2018 roku zbiór tekstów pt. Studia z filozofii informatyki. Autor kilkudziesięciu artykułów naukowych z dziedziny
filozofii. Oprócz filozofii zajmuje się także teorią komunikacji oraz filozofią architektury. Wydał kilka książek z
tego zakresu.
Andrzej Zykubek (Uniwersytet Mikołaja Kopernika, Toruń)
Inteligencja organoidów?
Czego mózgowe organoidy mogą nauczyć się od sztucznej inteligencji?
Postępy w dziedzinie organoidów mózgowych pochodzących z ludzkich komórek macierzystych dają obiecujące
wyniki na odtworzenie krytycznych, choć wciąż słabo poznanych, molekularnych i komórkowych aspektów
uczenia się i pamięci oraz prawdopodobnie aspektów poznawczych in vitro. Już dziś mówimy o swoistej
inteligencji organoidów (OI). Konstruowane są złożone sieciowe interfejsy, w których organoidy mózgowe są
połączone z rzeczywistymi czujnikami i urządzeniami wyjściowymi, a ostatecznie ze sobą nawzajem i z
organoidami narządów zmysłów (np. organoidami siatkówki), i są szkolone przy użyciu: (i) biofeedbacku, (ii)
różnorodnych procesów przechowywania, zarządzania i analizy olbrzymich ilości danych, które pochodzą z
różnych źródeł i mają różnorodną strukturę, (iii) metod uczenia maszynowego.
Organoidy mózgowe rzeczywiście mogą „uczyć się” i wykonywać zadania dzięki technikom szkoleniowym
opartym na sztucznej inteligencji, inspirowanym neuronauką i uczeniem maszynowym. Technologie sztucznej
inteligencji są tutaj niezbędne, ponieważ dekodują złożone dane neuronowe z organoidów umożliwiając
obserwowanie, w jaki sposób żywe neurony dostosowują swoje sieci komórkowe w odpowiedzi na bodźce.
Algorytmy sztucznej inteligencji kontrolują również sygnały sprzężeń zwrotnych tworząc biologiczne pętle
sprzężeń, które pozwalają organoidom na adaptację, a nawet wykazanie cech pamięci krótkotrwałej.
Przewiduje się, że systemy biokomputerowe oparte na OI pozwolą na szybsze podejmowanie decyzji, ciągłe
uczenie się podczas wykonywania zadań oraz większą efektywność energetyczną i wydajność w przetwarzaniu
danych. Co więcej, rozwój „inteligencji organoidów” może pomóc w wyjaśnieniu patofizjologii wyniszczających
chorób rozwojowych i zwyrodnieniowych (np. demencji) potencjalnie pomagając w identyfikacji nowych podejść
terapeutycznych.
dr Andrzej Zykubek – biolog i filozof, nauczyciel i miłośnik filozofii przyrody, dyskutujący ewolucjonista,
zainteresowany genezą życia i umysłu poszukiwacz zatrudniony od niedawna w Katedrze Kognitywistyki UMK;
od wielu lat związany z Wydziałem Filozofii KUL. Sympatyk torfowisk, rowerów i górskich wędrówek, wypraw
kajakowych i bardzo dobrej muzyki. Wieloletni Członek Komitetu Organizacyjnego i Organizator Lubelskiego
Festiwalu Nauki, Letniej Szkoły Kognitywistyki i Warsztatów Filozofii Przyrody. Wbrew pseudonimowi
nadanemu mu przez studentów lubi innych przedstawicieli gatunku Homo sapiens sapiens.
Edward W. Piotrowski (Uniwersytet w Białymstoku)
Kwantowy komputer uniwersalny a sztuczna inteligencja
W ostatnich latach docierają do nas wiadomości o uruchomiani wysoce skomplikowanych konstrukcji
kontrolujących efekty kwantowe, które to urządzenia można uznać jedynie za komputery kwantowe specjalnego
przeznaczenia. Z powodzeniem prowadzone są eksperymenty testujące kryptografię kwantową. Liczni uczeni
snują hipotezy, jak rozwiną się technologie prowadzące do powstania uniwersalnego komputera kwantowego. W
tym kontekście spróbuję odpowiedzieć na pytanie, w jaki sposób może zapoczątkować on jakościowo nowy etap
rozwoju algorytmów z klasy tzw. sztucznej inteligencji.
prof. dr hab. Edward W. Piotrowski – pracuje w Katedrze Metod Matematycznych Fizyki na Wydziale Fizyki
Uniwersytetu w Białymstoku. Jest znany z analizy strategii kwantowych, w których ukazał związki między
kryterium Kelly’ego, termodynamiką a szczególną teorią względności. W dziedzinie ekonofizyki odkrył własności
ekstremalne punktów stałych dla zysków elementarnych taktyk handlowych. Publikował prace w dziedzinach
fizyki statystycznej, teorii gier kwantowych oraz ekonofizyki.
https://en.wikipedia.org/wiki/Edward_W._Piotrowski
http://alpha.uwb.edu.pl/ep/sj/index.shtml
dr hab. Robert Poczobut, prof. UwB (Uniwersytetu w Białymstoku)
Systemy inteligentne i ich substraty – perspektywa kognitywistyczna
W kontekście kognitywistyki do klasy systemów inteligentnych standardowo zalicza się systemy naturalne
(biologiczne – ludzie i inne zwierzęta), sztuczne (wytworzone w substratach niebiologicznych) oraz hybrydowe
(tworzone na bazie komponentów naturalnych i sztucznych). Zakłada to szerokie rozumienie systemu
inteligentnego jako systemu obliczeniowego, który potrafi odbierać informacje ze świata, przetwarzać je,
podejmować na ich podstawie decyzje (w sposób autonomiczny, adaptacyjny, a nawet twórczy) oraz rozwiązywać
problemy. Systemy inteligentne są systemami informacyjnymi pełniącymi szereg funkcji poznawczych, takich jak
uczenie się czy pamięć, a także pozapoznawczych, takich jak kontrola zachowania czy sterowanie działaniem
maszyny.
Substraty systemów inteligentnych to materiały lub struktury (układy komponentów), z których systemy
te są zbudowane, i na bazie których działają. Wyróżnia się: substraty biologiczne (np. neurony w mózgach ludzi
innych zwierząt – inteligencja naturalna), substraty elektroniczne (krzemowe układy scalone wykorzystywane
przez większość współczesnych systemów AI), substraty oparte na fotonach, substraty molekularne
(przetwarzające informacje na bazie reakcji chemicznych) oraz substraty quasi-biologiczne (sztuczne sieci
neuronowe wbudowane w specjalne materiały naśladujące mózg, takie jak neuromorficzne chipy).
Zakłada się, że warunkiem możliwości istnienia systemów AI jest możliwość realizacji procesów
informacyjnych (poznawczych) w innych substratach niż substraty biologiczne. Powstaje pytanie: Czy i w jakim
stopniu natura substratu limituje możliwości systemu inteligentnego, który można w nim stworzyć? Czy będzie to
system szybki, czy powolny, równoległy czy szeregowy, ciągły czy dyskretny? Czy będzie umiał tworzyć nowe
idee, czy tylko liczyć (przetwarzać informację w sposób deterministyczny, algorytmiczny)? Czy będzie
energooszczędny, czy też wymagający ogromnych zasobów energetycznych? Z puntu widzenia kognitywistyki
ważne jest również pytanie, czy takie terminy, jak „inteligencja”, „uczenie się”, „pamięć” czy „rozwiązywanie
problemów”, mają to samo znaczenie w odniesieniu do systemów biologicznych oraz systemów AI. Jakie
podobieństwa i jakie różnice wchodzą tutaj w grę?
dr hab. Robert Poczobut, prof. UwB – prodziekan Wydziału Filozofii i Kognitywistyki ds. kognitywistyki,
kierownik Zakładu Epistemologii i Kognitywistyki. W latach 1993-2000 asystent, a następnie adiunkt w Zakładzie
Logiki i Metodologii Nauk UMCS. Od roku 2000 pracuje na Uniwersytecie w Białymstoku. Stypendysta Fundacji
na Rzecz Nauki Polskiej (2003), laureat Nagrody im. Tadeusza Kotarbińskiego (2001). Członek zarządu Polskiego
Towarzystwa Kognitywistycznego w kadencjach: 2014-2016, 2016-2018, 2018-2020. Opublikował cztery książki
oraz przeszło siedemdziesiąt artykułów naukowych z filozofii logiki, filozofii umysłu i filozofii kognitywistyki.
Za pracę Między redukcją a emergencją. Spór o miejsce umysłu w świecie fizycznymi (2009) uzyskał wyróżnienie
Fundacji na Rzecz Nauki Polskiej. Redaktor i współredaktor (m.in. z Marcinem Miłkowskim, Witoldem Henslem
i Dariuszem Surowikiem) licznych prac zbiorowych – Analityczna metafizyka umysłu. Najnowsze kontrowersje
(2008), Przewodnik po filozofii umysłu (2012), a także dwóch kognitywistycznych numerów (pt. Cognitive Systems
oraz Interfiled Integration in Cognitive Science) czasopisma „Studies in Logic, Grammar and Rhetoric” (2015,
2017). Obecnie pracuje nad monografią „Umysł i artefakty”.
mgr inż. Wojciech Głażewski (Uniwersytet w Białymstoku)
Pojęcie substratu a język opisu fizycznego podłoża systemów inteligentnych
W referacie zostanie przedstawione rozumienie pojęcia substratu, czyli fizycznego podłoża systemów
inteligentnych, zarówno biologicznych jak i sztucznych. Na polu samej kognitywistyki, w różnych dziedzinach
pojęcie to posiada kilka desygnatów: może opisywać materiał z którego wykonane jest tworzywo układu (substrat
jako podbudowa), może oznaczać zespół funkcjonalny wielu elementów realizujący określone zadanie (substrat
czynności), stosowany też jest jako generalne odniesienie do natury bytów inteligentnych, ich biologicznego lub
technicznego pochodzenia (substrat naturalny lub sztuczny). Wielość desygnatów i brak ścisłej definicji sprawiają
jednak trudności w jego precyzyjnym stosowaniu, co widać na przykładzie tzw. zasady niezależności od substratu,
której formułowaniu zawsze towarzyszy uściślający komentarz. Dla porównania, precyzyjne rozumienie kwestii
związanych z fizycznymi podłożami, zostanie w referacie pokazane na przykładzie języka używanego w
inżynierii. Samo słowo substrat nie jest tam stosowane w generalnym sensie, zamiast niego funkcjonuje siatka
adekwatnych pojęć, takich jak materiał, tworzywo, technologia, element, podzespół, katalog części, ustrój.
Zostanie także zaproponowana autorska definicja substratu, która w zamierzeniu ma pozwolić na precyzyjne
określenie jego desygnatu oraz wprowadzić doo filozofii intuicje bliższe technice, trafniej opisujące specyfikę
fizycznych podłoży systemów inteligentnych.
mgr inż. Wojciech Głażewski – inżynier i filozof. Ukończył automatykę i robotykę na Wydziale Mechanicznym
Politechniki Białostockiej oraz filozofię w Instytucie Filozofii Uniwersytetu w Białymstoku. Twórca wielu
projektów robotycznych, w tym robotów mobilnych, UAV i manipulatorów. Zawodowo inżynier projektant
mechaniki, specjalista ds. rozwoju technologii i ekspert naukowy. Główne zainteresowania obejmują naturę
informacji, inteligencję ludzką i sztuczną, sztuczny umysł oraz rozwój fizycznych substratów systemów
inteligentnych.
W ramach naszego serwisu www stosujemy pliki cookies zapisywane na urządzeniu użytkownika w celu dostosowania zachowania serwisu do indywidualnych preferencji użytkownika oraz w celach statystycznych. Użytkownik ma możliwość samodzielnej zmiany ustawień dotyczących cookies w swojej przeglądarce internetowej. Więcej informacji można znaleźć w Polityce Prywatności Uniwersytetu w Białymstoku. Korzystając ze strony wyrażają Państwo zgodę na używanie plików cookies, zgodnie z ustawieniami przeglądarki.