REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Rozmowy z robotem nie do odróżnienia od rozmowy z konsultantem

Subskrybuj nas na Youtube
sztuczna inteligencja
sztuczna inteligencja

REKLAMA

REKLAMA

Wspierany przez sztuczną inteligencję chatbot imponuje przekonująco ludzkim sposobem odpowiadania na pytania i interakcji z użytkownikami. Budzi to zarówno entuzjazm, jak i niepokój.

Kolejny poziom sztucznej inteligencji 

REKLAMA

Chatboty wykorzystujące technologię sztucznej inteligencji funkcjonują już od jakiegoś czasu. Wiele firm używa ich jako uzupełnienie opcji FAQ („często zadawanych pytań”) na swoich stronach internetowych oraz jako rozszerzenie oferty wsparcia. Nowy ChatGPT zaszokował ludzi z branży multimediów pod koniec 2022 roku, ponieważ niektóre odpowiedzi na pytania zadawane programowi przez użytkowników były tak przekonywujące, że praktycznie niemożliwe było stwierdzenie, czy udzielił ich człowiek, czy maszyna. Zrobiło to takie wrażenie, że według wstępnych niepotwierdzonych doniesień Microsoft planuje zainwestować dziesięć miliardów dolarów w OpenAI - firmę, która opracowała ChatGPT. W zamian gigant programistyczny z Redmond będzie zatrzymywał 75 proc. zysków OpenAI aż do momentu skompensowania zainwestowanej wcześniej kwoty. Po osiągnięciu tego celu Microsoft uzyska 49 proc. udziałów w OpenAI. W tej technologii naprawdę chodzi o duże pieniądze. 

REKLAMA

Potencjalne cele użycia systemów czatów opartych na sztucznej inteligencji budzą zarówno emocje jak i niepokój. Przypuszczenia, że Microsoft zamierza teraz uruchomić własną wyszukiwarkę Bing opartą na sztucznej inteligencji, będącą przeciwwagą dla dominacji Google, mogą okazać się prawdą. Możliwa jest również integracja z Cortaną - wirtualną asystentką Microsoftu.  Wiele osób, od programistów i dziennikarzy po osoby pracujące w obsłudze klienta i sprzedaży, jest krytycznie nastawionych do tych zmian, ponieważ obawiają się, że sztuczna inteligencja może w przyszłości ich zastąpić, w efekcie czego stracą pracę. Jakkolwiek zrozumiałe są te obawy, jest raczej mało prawdopodobne, aby ten scenariusz zrealizował się w średnim okresie czasu. Parafrazując - pojawienie się samochodu nie spowodowało, że wszyscy woźnicy zostali bez pracy z dnia na dzień. 

Sztuczna inteligencja może pomagać w przestępstwie 

REKLAMA

Systemy sztucznej inteligencji już od dłuższego czasu wspierają tworzenie oprogramowania. Oczywiście taka technologia może być również niewłaściwie wykorzystana – na przykład przez cyberprzestępców, którzy dokonują oszustw z pomocą chatbotów. Można sobie wyobrazić, że w fałszywym „call center”, gdzie działa sztab przestępców dokonujących cyberoszustw, pewnego dnia będzie tylko komputer lub centrum informatyczne. W połączeniu z inną technologią, opracowaną przez OpenAI, o nazwie Vall-E możliwości są tu wręcz przerażające. Vall-E jest w stanie naśladować głosy ludzi w zwodniczo realistyczny sposób i to przy stosunkowo niewielkiej ilości posiadanego materiału źródłowego. Wystarczy niewielka próbka głosu. Do niedawna możliwości te były zarezerwowane wyłącznie dla twórców SF. Wykorzystując taką imitację głosu przez komputer można spowodować, na przykład, że operator telefonii komórkowej ujawni lub zmieni dane osoby. 

ChatGPT i Vall-E obsługiwane prawidłowo, ale w celach niezgodnych z prawem, mogą stać się koszmarem dla cyberbezpieczeństwa. Zwłaszcza, gdy są wykorzystywane w szpiegostwie gospodarczym. W najgorszym scenariuszu może to spowodować całkowity brak zaufania do otrzymywanych e-maili lub rozmów telefonicznych od współpracowników lub przełożonych, ponieważ ich głosy mogą być tak dobrze imitowane przez komputer, że fałszerstwa nie da się rozpoznać przez telefon. Czy może to oznaczać krok wstecz i powrót do sytuacji, w której konieczne będzie załatwianie spraw osobiście, jeśli będzie się chciało mieć pewność, że nie rozmawia się ze sztuczną inteligencją naśladującą daną osobę?

Użycie coraz doskonalszych programów typu „deepfake”, kompilujących obraz i dźwięk tak, aby pokazać działania i wypowiedzi ludzi, które nigdy nie miały miejsca, może nawet wywołać wojnę.  Na tym tle wydaje się uzasadnione mówienie o „technologii ryzyka”, której wykorzystanie powinno być ściśle uregulowane. Dlatego zarówno politycy, jak i producenci dali wyraźnie do zrozumienia w 2018 roku, że muszą istnieć jasne przepisy i regulacje w tym zakresie. Komisja Europejska również zajmuje się opracowaniem przepisów regulujących ten temat.

Dalszy ciąg materiału pod wideo

Ponadto technologie te można wykorzystać do rozpowszechniania i generowania fałszywych wiadomości, ponieważ informacje tekstowe tworzone przez ChatGPT są praktycznie w 100% „ludzkie”. Jedna z przyczyn takiego stanu rzeczy jest omówiona w dalszej części artykułu. 

ChatGPT może również pisać kody programu. Wystarczy prosta instrukcja, a bot poda żądane wiersze kodu. Naturalnie, wzbudziło to obawy, że programiści mogą w przyszłości okazać się zbędni. Jednak w tej kwestii nie ma powodu do niepokoju. Jednym z powodów jest to, że ChatGPT nie nauczył się samodzielnie tworzyć oprogramowania. Tym samym system również nie „wie”, jak działa bezpieczny kod. Utworzony kod może działać, ale samo bezpieczeństwo może być kwestionowane. Kod źródłowy generowany przez sztuczną inteligencję może zatem zawierać luki w zabezpieczeniach. Podejmowano nawet próby wykorzystania ChatGPT do tworzenia ransomware - oprogramowania, które blokuje dostęp do systemu komputerowego lub uniemożliwia odczyt zapisanych w nim danych, a następnie żąda od ofiary okupu za przywrócenie stanu pierwotnego. W chwili obecnej tworzenie oprogramowania przez sztuczną inteligencję jest wciąż w bardzo wstępnej fazie. Jak dotąd nikomu nie udało się utworzyć całych pakietów oprogramowania wyłącznie za pomocą sztucznej inteligencji. Nadal jednak nie jest jasne czy, w jaki sposób i za pomocą jakich narzędzi, będzie można zidentyfikować oprogramowanie utworzone przez sztuczną inteligencję - w tym temacie istnieje cały czas duże pole do dyskusji. 

Sztuczna inteligencja napisze esej  

Nie ma więc powodu, aby twórcy oprogramowania obawiali się o swoją pracę. Jak dotąd nic nie zastąpi wieloletniego doświadczenia w programowaniu i wyczucia, czy kod jest bezpieczny, czy nie. Szkodliwe oprogramowanie tworzone przez sztuczną inteligencję jeszcze się nie pojawiło (a przynajmniej nie ma jeszcze takich informacji) – ale gdyby w pewnym momencie do tego doszło, wątpliwym jest, czy w ogóle dałoby się je rozpoznać. 

Inny sposób oszukańczego wykorzystania sztucznej inteligencji już obiegł media społecznościowe: okazuje się, że ChatGPT może tworzyć świetnie brzmiące i doskonale spójne eseje na dowolny temat i to w ciągu kilku sekund. Komentarze wielu uczniów: „Sam bym tego lepiej nie napisał”. Oczywiście ucieszy to tych, którzy zapomnieli lub którym się nie chciało napisać eseju. Już w tej chwili nauczyciele skarżą się na to, że uczniowie korzystają ze sztucznej inteligencji przy wykonywaniu prac domowych. Zaczyna to również być problemem w środowisku akademickim. Fakt, że tekst napisany przez ChatGPT jest praktycznie nie do odróżnienia od tekstu napisanego przez człowieka, może stwarzać potencjalne problemy z rzetelnością opracowań naukowych. Jako przeciwwaga do takich działań, tworzone są nowe programy umożliwiające nauczycielom rozpoznawanie tekstów utworzonych przez sztuczną inteligencję i przedstawianych przez uczniów i studentów jako ich własne prace.

Przedszkole „sztucznej inteligencji” 

Nie chcemy uczłowieczać komputerów, ale może powinniśmy traktować nowoczesne systemy sztucznej inteligencji jak małe dzieci? Nie emocjonalnie, ale raczej z edukacyjnego punktu widzenia. Jeśli nie nauczymy sztucznej inteligencji prawidłowych zachowań od samego początku, może ona wyrządzić wiele szkód. Podobnie jak małe dziecko, które głośno i radośnie wypowiada przekleństwa usłyszane od dorosłych i które należy odpowiednio wychować, również sztuczną inteligencję należy odpowiednio ukierunkować. Jako ludzie uczymy się od naszego otoczenia i z interakcji z innymi. Natomiast sztuczna inteligencja pobiera informacje z otoczenia i formuje własne zasady, oderwane od interakcji międzyludzkich, dlatego obecnie koncepcje etyczne nie są elementem przy formułowaniu wypowiedzi. Taki zbiór zasad zostaje określony w oparciu o informacje znalezione w Internecie przez sztuczną inteligencję, a jak wiadomo w Internecie treści etycznie wątpliwe mają sztucznie zawyżoną popularność. Sztuczna inteligencja przyjmuje, że to, co cieszy się dużym zainteresowaniem – bez względu na to, z jakiego pochodzi źródła – musi być dobre. W taki sposób generowane są posty z treściami rasistowskimi. Tutaj również obowiązuje zasada: co na wejściu, to na wyjściu. Sztuczna inteligencja musi więc nauczyć się kompetencji medialnych, aby odróżniać informacje rzetelne i obiektywne od wątpliwych moralnie i naukowo. Ale to już jest temat na oddzielną dyskusję. Pewne jest tylko jedno: media społecznościowe niekoniecznie muszą być właściwą „szkołą” dla sztucznej inteligencji. 

Oprócz całego entuzjazmu, powodem do niepokoju jest to, że sztuczna inteligencja może tak łudząco naśladować ludzkie zachowanie. W przyszłości będziemy musieli opracować metody pozwalające odróżnić prawdziwą osobę od sztucznej inteligencji, zwłaszcza w przypadku kontaktów nawiązywanych przez Internet lub telefon. Niezależnie od tego, jak przydatna i pomocna jest sztuczna inteligencja, nie powinniśmy jej ślepo ufać. 

Źródło: G DATA Software

Zapisz się na newsletter
Zakładasz firmę? A może ją rozwijasz? Chcesz jak najbardziej efektywnie prowadzić swój biznes? Z naszym newsletterem będziesz zawsze na bieżąco.
Zaznacz wymagane zgody
loading
Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich
Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj.
success

Potwierdź zapis

Sprawdź maila, żeby potwierdzić swój zapis na newsletter. Jeśli nie widzisz wiadomości, sprawdź folder SPAM w swojej skrzynce.

failure

Coś poszło nie tak

Źródło: Materiały zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Moja firma
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Jak założyć spółkę z o.o. z aktem notarialnym?

Umowa spółki z o.o. w formie aktu notarialnego jest konieczna, gdy wspólnicy zamierzają wprowadzić do umowy postanowienia, których dodanie nie jest możliwe w przypadku spółki z o.o. zakładanej przez S24. Dotyczy to m.in. sytuacji, w których wspólnicy zamierzają wnieść wkłady niepieniężne, wprowadzić obowiązek powtarzających się świadczeń niepieniężnych, zmienić zasady głosowania w spółce, uprzywilejować udziały co do głosu, czy do dywidendy.

W jaki sposób hakerzy wykorzystują e-maile do ataków? Mają swoje sposoby

Najpopularniejszą formą cyberataku jest obecnie phishing. Fałszywe wiadomości są coraz trudniejsze do wykrycia, bo cyberprzestępcy doskonale się wyspecjalizowali. Jak rozpoznać niebzepieczną wiadomość? Jak chronić swoją firmę przed cyberatakami?

Co nowego dla firm biotechnologicznych w Polsce? [WYWIAD]

Na co powinny przygotować się firmy z branży biotechnologicznej? O aktualnych problemach i wyzwaniach związanych z finansowaniem tego sektora mówi Łukasz Kościjańczuk, partner w zespole Biznes i innowacje w CRIDO, prelegent CEBioForum 2025.

Coraz trudniej rozpoznać fałszywe opinie w internecie

40 proc. Polaków napotyka w internecie na fałszywe opinie, wynika z najnowszego badania Trustmate.io. Pomimo, że UOKiK nakłada kary na firmy kupujące fałszywe opinie to proceder kwietnie. W dodatku 25 proc. badanych ma trudności z rozróżnieniem prawdziwych recenzji.

REKLAMA

To nie sztuczna inteligencja odbierze nam pracę, tylko osoby umiejące się nią posługiwać [WYWIAD]

Sztuczna inteligencja stała się jednym z największych wyścigów technologicznych XXI wieku. Polskie firmy też biorą w nim udział, ale ich zaangażowanie w dużej mierze ogranicza się do inwestycji w infrastrukturę, bez realnego przygotowania zespołów do korzystania z nowych narzędzi. To tak, jakby maratończyk zaopatrzył się w najlepsze buty, zegarek sportowy i aplikację do monitorowania wyników, ale zapomniał o samym treningu. O tym, dlaczego edukacja w zakresie AI jest potrzebna na każdym szczeblu kariery, jakie kompetencje są niezbędne, które branże radzą sobie z AI najlepiej oraz czy sztuczna inteligencja doprowadzi do redukcji miejsc pracy, opowiada Radosław Mechło, trener i Head of AI w BUZZcenter.

Lider w oczach pracowników. Dlaczego kadra zarządzająca powinna rozwijać kompetencje miękkie?

Sposób, w jaki firma buduje zespół i rozwija wiedzę oraz umiejętności swoich pracowników, to dzisiaj jeden z najważniejszych czynników decydujących o jej przewadze konkurencyjnej. Konieczna jest tu nie tylko adaptacja do szybkich zmian technologicznych i rynkowych, lecz także nieustanny rozwój kompetencji miękkich, które okazują się kluczowe dla firm i ich liderów.

Dziękuję, które liczy się podwójnie. Jak benefity mogą wspierać ludzi, firmy i planetę?

Coraz więcej firm mówi o zrównoważonym rozwoju – w Polsce aż 72% organizacji zatrudniających powyżej 1000 pracowników deklaruje działania w tym obszarze1. Jednak to nie tylko wielkie strategie kształtują kulturę organizacyjną. Często to codzienne, pozornie mało znaczące decyzje – jak wybór dostawcy benefitów czy sposób ich przekazania pracownikom – mówią najwięcej o tym, czym firma kieruje się naprawdę. To właśnie one pokazują, czy wartości organizacji wykraczają poza hasła w prezentacjach.

Windykacja należności. Na czym powinna opierać się działalność windykacyjna

Chociaż windykacja kojarzy się z negatywnie, to jest ona kluczowa w zapewnieniu stabilności finansowej przedsiębiorstw. Branża ta, często postrzegana jako pozbawiona jakichkolwiek zasad etycznych, w ciągu ostatnich lat przeszła znaczną transformację, stawiając na profesjonalizm, przejrzystość i szacunek wobec klientów.

REKLAMA

Będą duże problemy. Obowiązkowe e-fakturowanie już za kilka miesięcy, a dwie na trzy małe firmy nie mają o nim żadnej wiedzy

Krajowy System e-Faktur (KSeF) nadchodzi, a firmy wciąż nie są na niego przygotowane. Nie tylko od strony logistycznej czyli zakupu i przygotowania odpowiedniego oprogramowania, ale nawet elementarnej wiedzy czym jest KSeF – Krajowy System e-Faktur.

Make European BioTech Great Again - szanse dla biotechnologii w Europie Środkowo-Wschodniej

W obliczu zmian geopolitycznych w świecie Europa Środkowo-Wschodnia może stać się nowym centrum biotechnologicznych innowacji. Czy Polska i kraje regionu są gotowe na tę szansę? O tym będą dyskutować uczestnicy XXIII edycji CEBioForum, największego w regionie spotkania naukowców, ekspertów, przedsiębiorców i inwestorów zajmujących się biotechnologią.

REKLAMA