REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Rozmowy z robotem nie do odróżnienia od rozmowy z konsultantem

sztuczna inteligencja
sztuczna inteligencja

REKLAMA

REKLAMA

Wspierany przez sztuczną inteligencję chatbot imponuje przekonująco ludzkim sposobem odpowiadania na pytania i interakcji z użytkownikami. Budzi to zarówno entuzjazm, jak i niepokój.

Kolejny poziom sztucznej inteligencji 

REKLAMA

Chatboty wykorzystujące technologię sztucznej inteligencji funkcjonują już od jakiegoś czasu. Wiele firm używa ich jako uzupełnienie opcji FAQ („często zadawanych pytań”) na swoich stronach internetowych oraz jako rozszerzenie oferty wsparcia. Nowy ChatGPT zaszokował ludzi z branży multimediów pod koniec 2022 roku, ponieważ niektóre odpowiedzi na pytania zadawane programowi przez użytkowników były tak przekonywujące, że praktycznie niemożliwe było stwierdzenie, czy udzielił ich człowiek, czy maszyna. Zrobiło to takie wrażenie, że według wstępnych niepotwierdzonych doniesień Microsoft planuje zainwestować dziesięć miliardów dolarów w OpenAI - firmę, która opracowała ChatGPT. W zamian gigant programistyczny z Redmond będzie zatrzymywał 75 proc. zysków OpenAI aż do momentu skompensowania zainwestowanej wcześniej kwoty. Po osiągnięciu tego celu Microsoft uzyska 49 proc. udziałów w OpenAI. W tej technologii naprawdę chodzi o duże pieniądze. 

REKLAMA

Potencjalne cele użycia systemów czatów opartych na sztucznej inteligencji budzą zarówno emocje jak i niepokój. Przypuszczenia, że Microsoft zamierza teraz uruchomić własną wyszukiwarkę Bing opartą na sztucznej inteligencji, będącą przeciwwagą dla dominacji Google, mogą okazać się prawdą. Możliwa jest również integracja z Cortaną - wirtualną asystentką Microsoftu.  Wiele osób, od programistów i dziennikarzy po osoby pracujące w obsłudze klienta i sprzedaży, jest krytycznie nastawionych do tych zmian, ponieważ obawiają się, że sztuczna inteligencja może w przyszłości ich zastąpić, w efekcie czego stracą pracę. Jakkolwiek zrozumiałe są te obawy, jest raczej mało prawdopodobne, aby ten scenariusz zrealizował się w średnim okresie czasu. Parafrazując - pojawienie się samochodu nie spowodowało, że wszyscy woźnicy zostali bez pracy z dnia na dzień. 

Sztuczna inteligencja może pomagać w przestępstwie 

REKLAMA

Systemy sztucznej inteligencji już od dłuższego czasu wspierają tworzenie oprogramowania. Oczywiście taka technologia może być również niewłaściwie wykorzystana – na przykład przez cyberprzestępców, którzy dokonują oszustw z pomocą chatbotów. Można sobie wyobrazić, że w fałszywym „call center”, gdzie działa sztab przestępców dokonujących cyberoszustw, pewnego dnia będzie tylko komputer lub centrum informatyczne. W połączeniu z inną technologią, opracowaną przez OpenAI, o nazwie Vall-E możliwości są tu wręcz przerażające. Vall-E jest w stanie naśladować głosy ludzi w zwodniczo realistyczny sposób i to przy stosunkowo niewielkiej ilości posiadanego materiału źródłowego. Wystarczy niewielka próbka głosu. Do niedawna możliwości te były zarezerwowane wyłącznie dla twórców SF. Wykorzystując taką imitację głosu przez komputer można spowodować, na przykład, że operator telefonii komórkowej ujawni lub zmieni dane osoby. 

ChatGPT i Vall-E obsługiwane prawidłowo, ale w celach niezgodnych z prawem, mogą stać się koszmarem dla cyberbezpieczeństwa. Zwłaszcza, gdy są wykorzystywane w szpiegostwie gospodarczym. W najgorszym scenariuszu może to spowodować całkowity brak zaufania do otrzymywanych e-maili lub rozmów telefonicznych od współpracowników lub przełożonych, ponieważ ich głosy mogą być tak dobrze imitowane przez komputer, że fałszerstwa nie da się rozpoznać przez telefon. Czy może to oznaczać krok wstecz i powrót do sytuacji, w której konieczne będzie załatwianie spraw osobiście, jeśli będzie się chciało mieć pewność, że nie rozmawia się ze sztuczną inteligencją naśladującą daną osobę?

Użycie coraz doskonalszych programów typu „deepfake”, kompilujących obraz i dźwięk tak, aby pokazać działania i wypowiedzi ludzi, które nigdy nie miały miejsca, może nawet wywołać wojnę.  Na tym tle wydaje się uzasadnione mówienie o „technologii ryzyka”, której wykorzystanie powinno być ściśle uregulowane. Dlatego zarówno politycy, jak i producenci dali wyraźnie do zrozumienia w 2018 roku, że muszą istnieć jasne przepisy i regulacje w tym zakresie. Komisja Europejska również zajmuje się opracowaniem przepisów regulujących ten temat.

Dalszy ciąg materiału pod wideo

Ponadto technologie te można wykorzystać do rozpowszechniania i generowania fałszywych wiadomości, ponieważ informacje tekstowe tworzone przez ChatGPT są praktycznie w 100% „ludzkie”. Jedna z przyczyn takiego stanu rzeczy jest omówiona w dalszej części artykułu. 

ChatGPT może również pisać kody programu. Wystarczy prosta instrukcja, a bot poda żądane wiersze kodu. Naturalnie, wzbudziło to obawy, że programiści mogą w przyszłości okazać się zbędni. Jednak w tej kwestii nie ma powodu do niepokoju. Jednym z powodów jest to, że ChatGPT nie nauczył się samodzielnie tworzyć oprogramowania. Tym samym system również nie „wie”, jak działa bezpieczny kod. Utworzony kod może działać, ale samo bezpieczeństwo może być kwestionowane. Kod źródłowy generowany przez sztuczną inteligencję może zatem zawierać luki w zabezpieczeniach. Podejmowano nawet próby wykorzystania ChatGPT do tworzenia ransomware - oprogramowania, które blokuje dostęp do systemu komputerowego lub uniemożliwia odczyt zapisanych w nim danych, a następnie żąda od ofiary okupu za przywrócenie stanu pierwotnego. W chwili obecnej tworzenie oprogramowania przez sztuczną inteligencję jest wciąż w bardzo wstępnej fazie. Jak dotąd nikomu nie udało się utworzyć całych pakietów oprogramowania wyłącznie za pomocą sztucznej inteligencji. Nadal jednak nie jest jasne czy, w jaki sposób i za pomocą jakich narzędzi, będzie można zidentyfikować oprogramowanie utworzone przez sztuczną inteligencję - w tym temacie istnieje cały czas duże pole do dyskusji. 

Sztuczna inteligencja napisze esej  

Nie ma więc powodu, aby twórcy oprogramowania obawiali się o swoją pracę. Jak dotąd nic nie zastąpi wieloletniego doświadczenia w programowaniu i wyczucia, czy kod jest bezpieczny, czy nie. Szkodliwe oprogramowanie tworzone przez sztuczną inteligencję jeszcze się nie pojawiło (a przynajmniej nie ma jeszcze takich informacji) – ale gdyby w pewnym momencie do tego doszło, wątpliwym jest, czy w ogóle dałoby się je rozpoznać. 

Inny sposób oszukańczego wykorzystania sztucznej inteligencji już obiegł media społecznościowe: okazuje się, że ChatGPT może tworzyć świetnie brzmiące i doskonale spójne eseje na dowolny temat i to w ciągu kilku sekund. Komentarze wielu uczniów: „Sam bym tego lepiej nie napisał”. Oczywiście ucieszy to tych, którzy zapomnieli lub którym się nie chciało napisać eseju. Już w tej chwili nauczyciele skarżą się na to, że uczniowie korzystają ze sztucznej inteligencji przy wykonywaniu prac domowych. Zaczyna to również być problemem w środowisku akademickim. Fakt, że tekst napisany przez ChatGPT jest praktycznie nie do odróżnienia od tekstu napisanego przez człowieka, może stwarzać potencjalne problemy z rzetelnością opracowań naukowych. Jako przeciwwaga do takich działań, tworzone są nowe programy umożliwiające nauczycielom rozpoznawanie tekstów utworzonych przez sztuczną inteligencję i przedstawianych przez uczniów i studentów jako ich własne prace.

Przedszkole „sztucznej inteligencji” 

Nie chcemy uczłowieczać komputerów, ale może powinniśmy traktować nowoczesne systemy sztucznej inteligencji jak małe dzieci? Nie emocjonalnie, ale raczej z edukacyjnego punktu widzenia. Jeśli nie nauczymy sztucznej inteligencji prawidłowych zachowań od samego początku, może ona wyrządzić wiele szkód. Podobnie jak małe dziecko, które głośno i radośnie wypowiada przekleństwa usłyszane od dorosłych i które należy odpowiednio wychować, również sztuczną inteligencję należy odpowiednio ukierunkować. Jako ludzie uczymy się od naszego otoczenia i z interakcji z innymi. Natomiast sztuczna inteligencja pobiera informacje z otoczenia i formuje własne zasady, oderwane od interakcji międzyludzkich, dlatego obecnie koncepcje etyczne nie są elementem przy formułowaniu wypowiedzi. Taki zbiór zasad zostaje określony w oparciu o informacje znalezione w Internecie przez sztuczną inteligencję, a jak wiadomo w Internecie treści etycznie wątpliwe mają sztucznie zawyżoną popularność. Sztuczna inteligencja przyjmuje, że to, co cieszy się dużym zainteresowaniem – bez względu na to, z jakiego pochodzi źródła – musi być dobre. W taki sposób generowane są posty z treściami rasistowskimi. Tutaj również obowiązuje zasada: co na wejściu, to na wyjściu. Sztuczna inteligencja musi więc nauczyć się kompetencji medialnych, aby odróżniać informacje rzetelne i obiektywne od wątpliwych moralnie i naukowo. Ale to już jest temat na oddzielną dyskusję. Pewne jest tylko jedno: media społecznościowe niekoniecznie muszą być właściwą „szkołą” dla sztucznej inteligencji. 

Oprócz całego entuzjazmu, powodem do niepokoju jest to, że sztuczna inteligencja może tak łudząco naśladować ludzkie zachowanie. W przyszłości będziemy musieli opracować metody pozwalające odróżnić prawdziwą osobę od sztucznej inteligencji, zwłaszcza w przypadku kontaktów nawiązywanych przez Internet lub telefon. Niezależnie od tego, jak przydatna i pomocna jest sztuczna inteligencja, nie powinniśmy jej ślepo ufać. 

Źródło: G DATA Software

Autopromocja

REKLAMA

Źródło: Materiały zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:

REKLAMA

QR Code
Moja firma
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
KAS: Nowe funkcjonalności konta organizacji w e-Urzędzie Skarbowym

Spółki, fundacje i stowarzyszenia nie muszą już upoważniać pełnomocników do składania deklaracji drogą elektroniczną, aby rozliczać się elektronicznie. Krajowa Administracja Skarbowa wprowadziła nowe funkcjonalności konta organizacji w e-US.

Sztuczna inteligencja będzie dyktować ceny?

Sztuczna inteligencja wykorzystywana jest coraz chętniej, sięgają po nią także handlowcy. Jak detaliści mogą zwiększyć zyski dzięki sztucznej inteligencji? Coraz więcej z nich wykorzystuje AI do kalkulacji cen. 

Coraz więcej firm zatrudnia freelancerów. Przedsiębiorcy opowiadają dlaczego

Czy firmy wolą teraz zatrudniać freelancerów niż pracowników na etat? Jakie są zalety takiego modelu współpracy? 

Lavard - kara UOKiK na ponad 3,8 mln zł, Lord - ponad 213 tys. zł. Firmy wprowadzały w błąd konsumentów kupujących odzież

UOKiK wymierzył kary finansowe na przedsiębiorstwa odzieżowe: Polskie Sklepy Odzieżowe (Lavard) - ponad 3,8 mln zł, Lord - ponad 213 tys. zł. Konsumenci byli wprowadzani w błąd przez nieprawdziwe informacje o składzie ubrań. Zafałszowanie składu ubrań potwierdziły kontrole Inspekcji Handlowej i badania w laboratorium UOKiK.

REKLAMA

Składka zdrowotna to parapodatek! Odkręcanie Polskiego Ładu powinno nastąpić jak najszybciej

Składka zdrowotna to parapodatek! Zmiany w składce zdrowotnej muszą nastąpić jak najszybciej. Odkręcanie Polskiego Ładu dopiero od stycznia 2025 r. nie satysfakcjonuje przedsiębiorców. Czy składka zdrowotna wróci do stanu sprzed Polskiego Ładu?

Dotacje KPO wzmocnią ofertę konkursów ABM 2024 dla przedsiębiorców

Dotacje ABM (Agencji Badań Medycznych) finansowane były dotychczas przede wszystkim z krajowych środków publicznych. W 2024 roku ulegnie to zmianie za sprawą środków z KPO. Zgodnie z zapowiedziami, już w 3 i 4 kwartale możemy spodziewać się rozszerzenia oferty dotacyjnej dla przedsiębiorstw.

"DGP": Ceneo wygrywa z Google. Sąd zakazał wyszukiwarce Google faworyzowania własnej porównywarki cenowej

Warszawski sąd zakazał wyszukiwarce Google faworyzowania własnej porównywarki cenowej. Nie wolno mu też przekierowywać ruchu do Google Shopping kosztem Ceneo ani utrudniać dostępu do polskiej porównywarki przez usuwanie prowadzących do niej wyników wyszukiwania – pisze we wtorek "Dziennik Gazeta Prawna".

Drogie podróże zarządu Orlenu. Nowe "porażające" informacje

"Tylko w 2022 roku zarząd Orlenu wydał ponad pół miliona euro na loty prywatnymi samolotami" - poinformował w poniedziałek minister aktywów państwowych Borys Budka. Dodał, że w listopadzie ub.r. wdano też 400 tys. zł na wyjazd na wyścig Formuły 1 w USA.

REKLAMA

Cable pooling - nowy model inwestycji w OZE. Warunki przyłączenia, umowa

W wyniku ostatniej nowelizacji ustawy Prawo energetyczne, która weszła w życie 1 października 2023 roku, do polskiego porządku prawnego wprowadzono długo wyczekiwane przez polską branżę energetyczną przepisy regulujące instytucję zbiorczego przyłącza, tzw. cable poolingu. Co warto wiedzieć o tej instytucji i przepisach jej dotyczących?

Wakacje składkowe. Od kiedy, jakie kryteria trzeba spełnić?

12 kwietnia 2024 r. w Sejmie odbyło się I czytanie projektu nowelizacji ustawy o systemie ubezpieczeń społecznych. Projekt nowelizacji przewiduje zwolnienie z opłacania składek ZUS (tzw. wakacje składkowe) dla małych przedsiębiorców. 

REKLAMA