"Szansa cywilizacyjna, ale też poważne zagrożenie". Ekspert o sztucznej inteligencji

Technologie
"Szansa cywilizacyjna, ale też poważne zagrożenie". Ekspert o sztucznej inteligencji
Polsat News
Według prof. Jemielniaka rozwój sztucznej inteligencji w przyszłości może zwiększyć liczbę bezrobotnych

Wiele osób mówi, że ta technologia ma nawet większy wymiar niż wynalezienie ognia - powiedział w Polsat News o sztucznej inteligencji prof. Dariusz Jemielniak. Jego zdaniem to "olbrzymia szansa cywilizacyjna", ale i "bardzo poważne zagrożenie dla naszego gatunku". Według wiceprezesa Polskiej Akademii Nauk sztuczna inteligencja będzie rozwijać się szybciej w Chinach niż w USA czy Europie.

Za sprawą ChatuGPT, z którym można porozmawiać na niemal każdy temat, kwestia sztucznej inteligencji rozpaliła wyobraźnię ludzi na całym świecie. Według prof. Dariusza Jemielniaka z Akademii Leona Koźmińskiego w Warszawie "postęp w tej kwestii nastąpił się już parę lat temu, jednak dopiero teraz zaczyna to docierać do świadomości ludzi".

 

- To jest rewolucyjny przełom, kluczowy moment. Wiele osób twierdzi, że ta technologia ma nawet większy wymiar niż wynalezienie ognia - powiedział na antenie Polsat News. 

 

Jak jednak zauważył, trzeba zdawać sobie sprawę z tego, że "jest to olbrzymia szansa cywilizacyjna, ale również bardzo poważne zagrożenie dla naszego gatunku".

"Jest światełko w tunelu"

- Tempo rozwoju technologii takiej jak sztuczna inteligencja, nie jest ograniczone tempem ewolucji biologicznej. To jest błyskawiczny, ale jednocześnie skokowy przyrost - stwierdził prof. Jemielniak.

 

Dodał, że każda kolejna generacja "wymaga bardzo dużych nakładów". - To co obecnie widzimy, czyli chociażby ChatGPT, to jest technologia bardzo droga do opracowania, ale również bardzo droga w eksploatacji. Dlatego kolejnego kroku możemy się spodziewać za rok, może dwa, ale on na pewno nastąpi - ocenił.

 

ZOBACZ: Sztuczna inteligencja zwolni z rozwojem? Pierwszy kraj banuje ChatGPT

 

Mówiąc o możliwościach sztucznej inteligencji ekspert przypomniał, że "wszystko to, co ludzie robią, zwłaszcza pracownicy umysłowi, to jest coś, co potencjalnie może robić również sztuczna inteligencja".

 

- Ale jest światełko w tunelu. Na razie sztuczna inteligencja nie jest w stanie zrobić cokolwiek sama. Ktoś musi sformułować dobre pytania, ktoś musi później to obrobić, wciąż jest więc spore pole do popisu dla ludzi, którzy będą tę sztuczną inteligencję obsługiwać - podkreślił. 

 

Jego zdaniem w przyszłości wydajność sztucznej inteligencji będzie wielokrotnie większa niż obecnie. - Dlatego możemy się spodziewać, że będzie dużo więcej bezrobotnych, albo tego, że te usługi potanieją i zwiększy się na nie radykalnie popyt - uznał.

 

WIDEO: Ekspert o sztucznej inteligencji

 

"Sztuczna inteligencja nie ma systemu wartości"

Ekspert przypomniał również, że "sztuczną inteligencję bardzo trudno jest nauczyć jakichś wartości". - Póki co nie mamy pomysłu, jak można by to zrobić. Sztuczna inteligencja jest agnostyczna, czyli nie ma systemu wartości. Ona po prostu posługuje się tym, co do niej włożyliśmy - powiedział. 

 

Z tego względu prof. Jemielniak zaleca ostrożność, jeśli chodzi o przekazywanie funkcji decyzyjnych do systemów sztucznej inteligencji. - Bo mamy to bardzo słabo opracowane i nie wiemy jak to kontrolować. Jeśli sztuczna inteligencja się bardzo rozwinie, to niestety nie będziemy nawet w stanie jej zatrzymać - objaśnił.

 

Według niego sztuczna inteligencja będzie rozwijała się szybciej w Chinach niż w USA czy w Europie. - Chociażby dlatego, ze tam nie ma takich poważnych ograniczeń jeśli chodzi o prywatność, o etykę - stwierdził.

 

ZOBACZ: W szukaniu życia na Marsie może pomóc nam sztuczna inteligencja

 

Przypomniał, że w Chinach tamtejszy rząd może w zasadzie "od ręki" wykorzystać bardzo dużo danych na temat swoich obywateli, nie pytając ich o zdanie. - Jeśli gdzieś widziałbym przyszłość AI pod względem najnowszych technologii to zdecydowanie w Chinach - powiedział. 

 

Profesor podkreślił, że "my póki co nie rozumiem możliwości, która ta technologia daje". - Jeżeli w najbliższym czasie zobaczymy jakieś niewytłumaczalne krachy finansowe, to ja bym obstawiał, że będzie to w wyniku działania poprawionych algorytmów sztucznej inteligencji - stwierdził. 

 

Jak uzupełnił, "różnego rodzaju ryzyka związane z hakerstwem, wyciekiem danych oraz opracowywaniem broni biologicznych, to wszystko są zagrożenia, w których sztuczna inteligencja będzie dokonywała radykalnych postępów".

 

Ekspert zaapelował o zwiększenie kontroli w tym obszarze. - Jeśli mamy dobrze działające kontrole farmaceutyków, obiegu broni, to dlaczego nie ma nadzoru, instytucjonalnych barier, które nakładałyby jakieś ramy na rozwój sztucznej inteligencji, które spowodują, że będzie ona bezpieczniejsza - podsumował wiceszef PAN.

dk/wka / Polsatnews.pl
Czytaj więcej

Chcesz być na bieżąco z najnowszymi newsami?

Jesteśmy w aplikacji na Twój telefon. Sprawdź nas!

Przeczytaj koniecznie