Gildia Nauki Popularnej (www.nauka.gildia.pl) > Forum Nauki Popularnej

Technologiczna osobliwość

(1/3) > >>

Radan:
http://singularity.wikidot.com/
http://pl.wikipedia.org/wiki/Technologiczna_osobliwo%C5%9B%C4%87
http://futurewatch.wordpress.com/2008/05/11/ekonomiczna-osobliwosc-nadejdzie-czy-nie/
http://singularityhub.com/2008/11/02/singularity-summit-2008-reviewed/

"W futurologii, technologiczna osobliwość (lub po prostu Osobliwość, z ang. Singularity) to prognozowany punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny przyspiesza poza możliwość zrozumienia dzisiejszego człowieka."
"Technologiczna osobliwosc to taki punkt w rozwoju technologicznym ludzkosci w ktorym czas pomiedzy dwoma kolejnymi odkryciami naukowymi dazy do zera."

Zagadnienie jest całkiem ciekawe, to chyba przyznacie...
Większość pomysłów dotyczących osiągnięcia przez ludzkość technologicznej osobliwości zakłada, że uda nam (tzn. ludzkości) się stworzyć maszynę inteligentniejszą od człowieka. Maszyna ta byłaby w stanie tworzyć następne, jeszcze inteligentniejsze, i tak w nieskończoność. Tu w sumie mozna mieć wątpliwości, czy aby na pewno ludzie kidykolwiek będą w stanie zbudować coś intligentniejszego od nich, czy może za kilka lat natrafimy na nieprzekraczalną barierę, o której dziś nikomu się nie śni i skończą się marzenia o nieskończenie szybkim postępie technologicznym. Inną kwestią jest fakt, czy takie super inteligentne maszyny mogłyby w nieskończoność tworzyć jeszcze inteligenniejsze. Niezależnie od tego, jak zdefiniujemy inteligencję, bardzo wątpliwe, żeby (w praktyce) mogła rosnąć w nieskończoność.
Ale już stworzenie czegoś, co byłoby 100 razy inteligentniejsze od człowieka doprowadziłoby zapewne do postępu technologicznego, który wykracza poza nasze zdolności pojmowania…
A teraz właściwa część posta, czyli pytania:
- Załóżmy, że się da i że się uda. Jak zapatrujecie się na tworzenie maszyn inteligentniejszych od człowieka? Czy jest to na pewno pierwszy krok do osiągnięcia przez ludzkość rzeczy pozornie niemożliwych, czy raczej poważne zagrożenie dla ludzkości jako gatunku? Chyba wszyscy oglądaliśmy „Matrixa”, czy „Terminatora”, więc nie będę tu pisał, czym według wielu twórców sf skończyło by się tworzenie zbyt potężnych komputerów. Ale… Twory w „Matrixie”, czy „Terminatorze” były groźne właściwie nie z powodu swojej inteligencji, tylko z powodu posiadania świadomości. Nie wydaje mi się, żeby taki ultrainteligentny komputer zbudowany, dajmy na to, za dziesięć lat, posiadał świadomość, gdyż świadomość to pojęcie dosyć mdłe. Nie wiemy w sumie z czego ona wynika. Tym bardziej nie bardzo potrafilibyśmy ją zaszczepić maszynie. A nawet jeśli kiedyś będziemy w stanie tego dokonać, wątpię, czy ktokolwiek odważy się zbudować maszynę, która będzie inteligentniejsza od człowieka i jednocześnie będzie posiadała świadomość. Tak więc, moim zdaniem, jeśli nikt niczego po drodze nie spieprzy i nie da ultrainteligentym komputerom świadomości, bomb atomowych i dobrego powodu do eksterminacji ludzkości, stworzenie takich maszyn byłoby dla naszego gatunku bardzo dobrą wróżbą.
- Jak myślicie, jak daleko naprawdę może nas zaprowadzić taka technologiczna osobliwość? Czy waszym zdaniem nieskończenie szybki postęp technologiczny może zrobić z ludzkości „Boga v2.0”? Kusi wizja w której przed rokiem 2200 osiągamy nieśmiertelność, wokół Słońca tworzy się struktura Dysona, w parkach rozrywki dzieci dokarmiają dinozaury i żaby z karbonu, a orły rzymskich legionów docierają na wszystkie planety w promieniu 200000 lat świetlnych. A najsprytniejszy komputer na Ziemi jest o krok od wymyślenia, jak skrócić podróż do galaktyki Andromedy z dwóch minut do jednej sekundy. Ale czy to wszystko na pewno jest możliwe, czy da się w nieskończoność omijać prawa natury, lub po odpowiednim odkryciu/eksperymencie przepisywać je na nowo, z jakąś klauzulą, dzięki której są nam bardziej na rękę, na przykład zamiast „Nie da się zrobić lodów waniliowych o smaku czekoladowym” „W większości przypadków nie da się zrobić lodów waniliowych o smaku czekoladowym. Jednakże…”.

Spoiler: pokaż1.Temat zakładam tutaj, a nie na GT, bo tam Nehan by go zaspamował
2.Weźcie się wypowiedzcie... To przecież najciekawszy temat na GNP od czasu poprzedniego tematu na GNP!

Nezumi:

--- Cytat: Radan w Grudzień 21, 2009, 02:41:46 pm ---
Spoiler: pokaż1.Temat zakładam tutaj, a nie na GT, bo tam Nehan by go zaspamował
2.Weźcie się wypowiedzcie... To przecież najciekawszy temat na GNP od czasu poprzedniego tematu na GNP!

--- Koniec cytatu ---
nie wiem, czy mam czuc sie zaszczycony czy oburzony

haael:
Różni ludzie od dawien dawna próbowali stworzyć przedmiot obdarzony inteligencją (różne tam golemy, zombie i gadające kryształowe kule), ale dopiero od pięćdziesięciu lat przywdziali białe fartuchy i zaczęli mówić o sobie, że są naukowcami. Metod w każdym razie nie zmienili.

Musimy sobie uświadomić, że jesteśmy bardzo daleko od stworzenia sztucznej inteligencji. Wprawdzie ciągle różne grupy trąbią, że jesteśmy tuż-tuż, ale to tylko taka reklama.
Zakładając, że stworzenie sztucznej inteligencji jest w ogóle możliwe: natura stworzyła życie w miliard lat a inteligencję w kolejne cztery miliardy lat (4 razy więcej). My jeszcze nawet nie stworzyliśmy sztucznego życia. Załóżmy optymistycznie, że stworzymy je już jutro. Ile więc zajmie nam zrobienie golema? Nauki empiryczne mają jakieś 400 lat, więc minie jeszcze 1600 lat, zanim to osiągniemy.

Ograniczenia mocy komputerów dość łatwo wyliczyć. Nie można przekroczyć prędkości światła, ilości informacji na jednostkę powierzchni (tzw. zasada holograficzna) oraz ilość energii z'używanej przez komputer musi być na tyle mała, żeby nasz cud techniki nie zapadł się do czarnej dziury. Zakładając, że prawo Moore'a będzie obowiązywać w nieskończoność (czyli moc komputerów będzie przyrastać wykładniczo, podwajając się co 18 miesięcy), do tych fizycznych barier dojdziemy w ciągu 300 lat.

Tutaj jest artykuł: http://arxiv.org/abs/astro-ph/0404510, a tu jego streszczenie: http://lwn.net/Articles/285789/.

Wątpię, żeby super-inteligentne maszyny zajęły się wybijaniem ludzkości. W końcu powstanie człowieka nie spowodowało końca istnienia bakterii, chociaż bezpośrednio z nimi walczymy. Będziemy raczej mało interesujący dla istot super-inteligentnych. Ewentualnie będziemy tępieni jako szkodniki.


--- Cytuj ---Nie wydaje mi się, żeby taki ultrainteligentny komputer zbudowany, dajmy na to, za dziesięć lat, posiadał świadomość, gdyż świadomość to pojęcie dosyć mdłe.
--- Koniec cytatu ---
A ja nie sądzę, żeby super-inteligencję dało się oddzielić od świadomości.

I jest jeszcze jeden szkopuł. Otóż dzisiejsze komputery (maszyny Turinga) nie potrafią rozwiązywać tzw. problemów nierozstrzygalnych. A ludzie potrafią. Jest to dla mnie dowód na istnienie duszy. Widzę teraz dwa wyjścia. Albo wynajdziemy jakiś hiper-komputer oparty o inne zasady matematyczne albo wykażemy, że ludzie tak naprawdę nie potrafią rozwiązywać problemów nierozstrzygalnych a nasza pozorna umiejętność to tylko trik stosowany przez naturę. Jedna i druga droga wydaje mi się trudna do obrony.
W każdym razie o ile prawo Moore'a się nie załamie, już w niecałe 300 lat albo nauka dotrze do wybrzeży mistycyzmu albo padnie bastion wiary. Zwykle cieszę się, że żyję akurat dzisiaj, na początku XXI wieku, ale w tym jednym wypadku chciałbym być 300 lat młodszy i doczekać tego momentu.
Chociaż zapewne po drodze nastaną rzeczy, które nie śniły się naszym filozofom i za 300 lat ludzie będą sobie stawiać zupełnie inne pytania.

Dereq:

--- Cytat: haael w Grudzień 27, 2009, 12:14:08 am --- Otóż dzisiejsze komputery (maszyny Turinga) nie potrafią rozwiązywać tzw. problemów nierozstrzygalnych. A ludzie potrafią. Jest to dla mnie dowód na istnienie duszy.
--- Koniec cytatu ---

Nie,
co najwyżej jest to dowód na to, iż nie jesteśmy maszynami, zaprogramowanymi przez ludzi albo inne maszyny.
Oraz na to, że istnieje umysł ludzki.

haael:

--- Cytuj ---Nie,
co najwyżej jest to dowód na to, iż nie jesteśmy maszynami, zaprogramowanymi przez ludzi albo inne maszyny.
Oraz na to, że istnieje umysł ludzki.
--- Koniec cytatu ---
Tylko wszelkie znaki na Ziemi i Niebie wskazują, że żaden fizyczny obiekt nie powinien umieć rozwiązywać nic ponad problemy rozstrzygalne. Czyli jest w nas jakaś cząstka niefizyczna.

Możesz ewentualnie twierdzić, że istnieją jakieś nam jeszcze nieznane prawa fizyki, które odpowiadają za umysł, tylko że taka fizyka wychodziłaby daleeeeeeeeeeko poza nasze dzisiejsze teorie. Mało tego, takie prawa fizyki wymagałyby innej matematyki, niż dzisiejsze teorie. Rachunek różniczkowy nie wystarczy, żeby opisać nierozstrzygalność.

Szkoda, że nie dożyję odpowiedzi na te pytania, bo techniczne możliwości przeprowadzenia odpowiednich eksperymentów już się wyłaniają zza horyzontu. Jeszcze 300-400 lat, a ludzie będą przeprowadzać doświadczenia na istnienie duszy.

Nawigacja

[0] Indeks wiadomości

[#] Następna strona

Idź do wersji pełnej