Brytyjscy urzędnicy ostrzegają. Chatboty mogą być niebezpieczne

Świat

Eksperci z brytyjskiego centrum cyberbezpieczeństwa ostrzegło przed zbyt lekkomyślnym używaniem chatbotów w firmach. Ich badania wskazują, że boty mogą zostać nakłonione do szkodliwych działań.

Fragment płytki drukowanej z widocznymi układami scalonymi, rezystorami i innymi elementami elektronicznymi. Duży układ scalony z tekstem "LUCENT 40-0", "3COM LTD 40-048", "PERFORMANCE" i "SmartSilicon" jest widoczny po lewej stronie.
pixabay.com

National Cyber Security Centre (NCSC) wskazało, że eksperci do spraw bezpieczeństwa jeszcze nie odkryli jakie potencjalne zagrożenia mogą łączyć się z używaniem algorytmów zdolnych do wytwarzania interakcji brzmiących jak ludzkie, nazywanych dużymi modelami językowymi (large language models lub LLM).

 

Narzędzia oparte na sztucznej inteligencji są coraz częściej używane w biznesie, a według wielu w niedługiej przyszłości będą mogły zastąpić wyszukiwarki, ale także ludzi na stanowiskach związanych z obsługą klienta.

 

ZOBACZ: Sztuczna inteligencja wkracza do medycyny. Niektóre specjalizacje są zagrożone

NCSC: Chatboty można przekonać do rezygnacji z zabezpieczeń

Jednakże zdaniem NCSC, lekkomyślne włączanie narzędzi opartych na AI może stwarzać ryzyka. Szczególnie gdy modele są włączane w inne elementy działalności firmy. Badaczom wielokrotnie udawało się oszukać chatboty za pomocą odpowiednich komend, lub przekonać do ominięcia własnych zabezpieczeń.

 

W przytoczonym przez NCSC przykładzie, podpowiedź użyta do stworzenia chatbota opartego na LLM w jednej z firm, została odwrócona i chatbot udzielał obraźliwych odpowiedzi.

 

Badacze wskazują, że w gorszym przypadku chatbot używany przez bank mógłby zostać nakłoniony do wykonania nieautoryzowanych transakcji. Wystarczy, że haker opracowałby odpowiednią komendę.

Firmy korzystające z chatbotów powinny być ostrożne

"Organizacje budujące usługi korzystające z LLM muszą zachować ostrożność, tak jakby używały oprogramowania eksperymentalnego" - napisało NCSC na swojej stronie. Centrum podkreśliło, że na razie chatboty oparte na sztucznej inteligencji nie powinny mieć możliwości wykonywania transakcji bankowych w imieniu klientów i nie powinny być darzone pełnią zaufania.

 

Jak wskazał Reuters, władze na całym świecie mierzą się z wyzwaniami jakie rodzi rozwój narzędzi opartych na LLM takich jak ChatGPT i OpenAI. Firmy coraz częściej włączają je do swoich usług. Wpływ sztucznej inteligencji jest również widoczny w sferze cyberbezpieczeństwa, a władze USA i Kanady twierdzą, że zaobserwowały użycie AI przez hakerów.

 

 

Widziałeś coś ważnego? Przyślij zdjęcie, film lub napisz, co się stało. Skorzystaj z naszej Wrzutni

lmo/dsk / polsatnews.pl
Czytaj więcej

Chcesz być na bieżąco z najnowszymi newsami?

Jesteśmy w aplikacji na Twój telefon. Sprawdź nas!

Przeczytaj koniecznie