Podczas ostatniego webinaru poruszyliśmy temat wpływu sztucznej inteligencji na cyberbezpieczeństwo. Nasi rozmówcy rozmawiali między innymi o tym:
- Czym jest AI?
- Czym jest Chat GPT?
- Jakie są pozytywne aspekty?
- Jakie są negatywne aspekty?
- oraz czy jesteśmy skazani na zagładę?
Wyzwania związane z wykorzystaniem sztucznej inteligencji
w cyberbezpieczeństwie
Stronniczość
Niesprawiedliwe faworyzowanie lub dyskryminacja w wynikach generowanych przez algorytm. W kontekście cyberbezpieczeństwa stronniczość może skutkować fałszywie dodatnimi lub fałszywie ujemnymi wynikami, prowadząc do błędnych decyzji, przeoczonych zagrożeń lub niesprawiedliwych działań. Stronniczość algorytmów sztucznej inteligencji wynika z danych wykorzystywanych do ich szkolenia. Jeśli dane szkoleniowe są stronnicze lub niereprezentatywne, algorytm AI nauczy się i utrwali te uprzedzenia w swoich prognozach i decyzjach.
Wykorzystanie w niecnych celach
Atakujący mogą wykorzystywać technologie sztucznej inteligencji w celu zwiększenia wyrafinowania i skuteczności swoich cyberataków, co stanowi poważne wyzwanie dla cyberbezpieczeństwa.
Ataki phishingowe z wykorzystaniem sztucznej inteligencji
Ataki phishingowe polegają na wykorzystaniu zwodniczych technik w celu nakłonienia osób do ujawnienia poufnych informacji lub wykonania złośliwych działań.
Sztuczna inteligencja może być wykorzystywana przez atakujących do tworzenia bardzo przekonujących i spersonalizowanych wiadomości phishingowych.
Sztuczna inteligencja może generować treści, które ściśle naśladują legalną komunikację, utrudniając użytkownikom rozróżnienie między prawdziwymi a fałszywymi wiadomościami poprzez wykorzystanie przetwarzania języka naturalnego (NLP) i algorytmów uczenia maszynowego.
Bezpieczeństwo sieci
Algorytmy sztucznej inteligencji mogą być szkolone w celu monitorowania sieci pod kątem podejrzanej aktywności, identyfikowania nietypowych wzorców ruchu i wykrywania urządzeń, które nie są autoryzowane do przebywania w sieci.
Sztuczna inteligencja może poprawić bezpieczeństwo sieci poprzez wykrywanie anomalii. Obejmuje to analizę ruchu sieciowego w celu zidentyfikowania wzorców, które wykraczają poza normę. Analizując historyczne dane o ruchu, algorytmy AI mogą nauczyć się, co jest normalne dla danej sieci i zidentyfikować ruch, który jest anomalny lub podejrzany. Może to obejmować nietypowe użycie portów, nietypowe użycie protokołów lub ruch z podejrzanych adresów IP.
W webinarze rozmawiają:
Wiktor Sędkowski – Specjalista w dziedzinie bezpieczeństwa cybernetycznego. Posiadacz certyfikatów CISSP, CCSP, OSWE, OSCP i MCTS, pracował jako inżynier i solution architect dla wiodących firm informatycznych. Autor wielu opracowań w dziedzinie cyberbezpieczeństwa, doktorant Politechniki Opolskiej.
Michał Podpora – dr hab. inż. Profesor Politechniki Opolskiej. Kierownik Wydziałowego Centrum Obliczeń Równoległych, kierownik studiów podyplomowych Informatyka Śledcza. Autor ponad 100 naukowych publikacji, specjalista w dziedzinie cyberbezpieczeństwa.
Moderator:
Tomasz Ciecierski – Absolwent politologii na Uniwersytecie Opolskim. Z mediami zawodowo związany od ponad 20 lat (TVP, Polskie Radio, Radio Watykan, KAI, Radio Plus, Rzeczpospolita). Autor programów Oblicza wiary, #OdZakrystii. Współzałożyciel Akademickiego Klubu Miłośników Strzelectwa i sędzia sportowy.
Przydane linki:
https://willrobotstakemyjob.com/
https://keytap3-gui.ggerganov.com/
https://instytutcyber.pl/projekty/webinary/czym-jest-deepfake-2/
Generowanie obrazów:
https://thispersondoesnotexist.com/
https://picsart.com/ai-image-generator
https://www.ailabtools.com/image-editor/https://neural.love/ai-art-generator
https://www.fotor.com/images/create
https://stablediffusionweb.com/
https://www.youtube.com/shorts/aRMfvIu0t8Y
Generowanie mowy:
https://elevenlabs.io/voice-lab
https://app.resemble.ai/voices
https://www.microsoft.com/en-us/research/project/vall-e-x/vall-e/
Jak się bronić: