Powstał projekt zasad ws. sztucznej inteligencji. Pracowano nad nim rok

Technologie
Powstał projekt zasad ws. sztucznej inteligencji. Pracowano nad nim rok
PAP/EPA/Timm Schamberger

Uniwersytet Montrealski zakończył prace nad projektem zasad rządzących sztuczną inteligencją. Systemy Artificial Intelligence (AI) powinny szanować prywatność i podlegać kontroli - podkreślono w Deklaracji Montrealskiej.

Kanadyjskie media zwracały uwagę, że deklarację należy czytać w kontekście takich wydarzeń, jak skandal z firmą Cambridge Analytica czy wprowadzanie systemów rozpoznawania twarzy przez rządy i siły policyjne.

 

Montreal jest jednym z kanadyjskich miast, w których firmy takie jak Google, Facebook czy Microsoft utworzyły centra prac nad AI. Akurat w dniu ogłoszenia deklaracji inwestycje ogłosiły trzy firmy z Wielkiej Brytanii: QuantumBlack, WinningMinds i BIOS.

 

"Po raz pierwszy w historii ludzkości jest możliwe tworzenie autonomicznych systemów zdolnych wykonywać złożone zadania, o których dotychczas sądzono, że zarezerwowane są dla naturalnej inteligencji" - napisano w preambule deklaracji, nad którą przez rok pracowało 100 specjalistów. Podkreślono też, że "pierwszym zagrożeniem związanym z rozwojem AI jest złudzenie, że można zapanować nad przyszłością dzięki obliczeniom". "Zredukowanie społeczeństwa do liczb i rządzenie nim dzięki algorytmom jest starym marzeniem" i stąd też celem deklaracji jest dostarczenie "etycznego kompasu".

 

Ochrona prywatności

 

"Sztuczna inteligencja powinna przyczyniać się do zwiększenia dobrostanu wszystkich czujących istot" - tak brzmi pierwsza z 10 zasad.

 

Portal publicznej telewizji CBC cytował profesor filozofii Christine Tappolet z Uniwersytetu Montrealskiego, uczestniczącą w pracach nad deklaracją, która podkreślała, że konieczne są normy i wartości, które będą towarzyszyć rozwojowi nowych technologii.

 

Stąd punkt drugi deklaracji, o respektowaniu autonomii człowieka i wspomaganiu zwiększania przez człowieka kontroli nad własnym życiem i otoczeniem. W punkcie trzecim zawarto zasadę ochrony prywatności.

 

Kolejne punkty dotyczą respektowania zasad solidarności społecznej i kontroli demokratycznej nad istniejącymi systemami AI. Zasada szósta dotyczy zobowiązania twórców systemów AI do wzmacniania równości i tworzenia społeczeństw bazujących na sprawiedliwości, zasada siódma - utrzymania różnorodności społecznej i inkluzywności.

 

Ludzka odpowiedzialność za systemy AI

 

Zasady od ósmej do dziesiątej dotyczą bezpieczeństwa: przewidywania negatywnych zastosowań, utrzymywania ludzkiej odpowiedzialności i nieprzerzucania jej na systemy AI oraz zapewnienia odpowiedzialnego rozwoju.

 

Tappolet zwróciła uwagę na obawy związane z konstrukcją nowych typów broni, które mogłyby samodzielnie podejmować decyzje wspomagane przez AI.

 

Na potrzebę stworzenia standardów w pracach nad AI wskazało we wrześniowym raporcie Citizen Lab przy Uniwersytecie Toronto. Napisano w nim m.in., że wykorzystanie przez rząd AI do przetwarzania wniosków imigracyjnych - takie badania prowadzi rząd w Ottawie - może prowadzić do dyskryminacji, naruszeń prywatności i praw człowieka. Tymczasem mogą pojawiać się sytuacje, gdy w grę wchodzi ludzkie życie.

 

Autorzy raportu sporządzili siedem rekomendacji dla rządu federalnego, wzywając m.in. do powołania niezależnej instytucji nadzorczej oraz federalnego zespołu badawczego, "aby lepiej zrozumieć obecny i przyszły wpływ zautomatyzowanych systemów podejmowania decyzji na prawa jednostki i szerzej na interes publiczny".

 

Zasady sformułowane w powieściach

 

Potrzebą praw rządzących sztuczną inteligencją zajmowali się już dawno powieściopisarze, a na powieści zwracały uwagę także rządy. W 1942 roku Isaac Asimov w opowiadaniu "Zabawa w berka" sformułował trzy prawa robotyki, do których dodał następnie prawo nadrzędne: Robot nie może skrzywdzić ludzkości lub poprzez zaniechania działania doprowadzić do uszczerbku dla ludzkości.

 

Prawom robotyki Asimova i jego koncepcji psychohistorii pozwalającej na bazie statystycznej przewidywać przyszłość rząd Kanady już kiedyś poświęcał uwagę. Na stronach internetowych Canadian Forests Service (lasy państwowe) znajduje się artykuł z 1996 roku, w którym podkreślono, że prognozowanie zachowań ludzkich jest już możliwe, tak jak przewidywał to m.in. Asimov. Z kolei Frank Herbert w sześciotomowym cyklu "Diuna" pisał o krucjacie przeciw komputerom, której rezultatem było obowiązujące w przyszłości przykazanie "nie będziesz czynił machin na podobieństwo rozumu ludzkiego".

mta/ PAP
Czytaj więcej

Chcesz być na bieżąco z najnowszymi newsami?

Jesteśmy w aplikacji na Twój telefon. Sprawdź nas!

Komentarze

Przeczytaj koniecznie