Przełom ws. sztucznej inteligencji. Nowy traktat będzie wiązać m.in. Polskę

Komisja Europejska podpisała w imieniu Unii Europejskiej pierwszą na świecie prawnie wiążącą umowę międzynarodową o sztucznej inteligencji. Ekspert ds. cyberbezpieczeństwa i nowych technologii Mikołaj Rogalewicz tłumaczy w rozmowie z RadioZET.pl, do czego będzie zobowiązana m.in. Polska.

Pierwsza międzynarodowa umowa dotycząca sztucznej inteligencji

Kształt umowy został zatwierdzony w maju br. po dyskusjach z udziałem przedstawicieli 57 państw. Traktat odnosi się do zagrożeń, które może stwarzać sztuczna inteligencja (AI), jednocześnie podkreślając jej innowacyjne znaczenie. Dokument został opracowany przez państwa członkowskie Rady Europy, USA, Kanadę, Meksyk, Japonię, Izrael, Australię, Argentynę, Peru, Urugwaj, Kostarykę oraz Stolicę Apostolską. W pracach brali udział także przedstawiciele organizacji społeczeństwa obywatelskiego, środowisk akademickich, przemysłu i innych organizacji międzynarodowych. Dyskusje odbywały się również na forum G7, OECD, G20 i ONZ.

Organem odpowiedzialny za negocjowanie i podpisywanie tego typu umów w imieniu państw Unii Europejskiej jest Komisja Europejska. Jej szefowa Ursula von der Leyen oceniła w czwartek, że traktat zapewni wspólne podejście do godnej zaufania, innowacyjnej AI, zgodnej z wartościami demokratycznymi. – Konwencja jest ważnym krokiem w kierunku zapewnienia, że te nowe technologie będą wykorzystywane bez podważania naszych […]  wartości, takich jak prawa człowieka i praworządność – powiedziała z kolei ministera sprawiedliwości Wielkiej Brytanii Shabana Mahmood.

Jakie zobowiązania wprowadza konwencja?

–  Konwencja jest odpowiedzią na intensywny rozwój systemów AI oraz zagrożeń, które mogą one powodować. Ustanawia ramy prawne, które mają na celu ograniczać ryzyko, jakie powodują systemy sztucznej inteligencji oraz zagwarantować odpowiedzialne wykorzystanie sztucznej inteligencji z poszanowaniem praw człowieka, praworządności i demokracji. Umowa wprowadza m.in. wymogi w zakresie przejrzystości i nadzoru dostosowane do konkretnych kontekstów i zagrożeń, w tym dotyczące identyfikacji treści generowanych przez systemy sztucznej inteligencji. Strony konwencji będą zobowiązane m.in. do oceny konieczności wprowadzenia zakazu korzystania ze systemów AI w określony sposób, jeżeli powodowałoby ono zagrożenia z punktu widzenia praw człowieka. Umowa zawiera też zapisy wymagające od stron wprowadzenia środków, które zagwarantują, że systemy AI nie będą wykorzystywane do podważania instytucji i procesów demokratycznych. Zakłada także konieczność przyjęcia przez strony środków gwarantujących odpowiedzialność za niekorzystne skutki wykorzystania AI. Sama umowa zawiera ogólne zapisy i zobowiązuje państwa do wprowadzenia szczegółowych środków oraz regulacji w tym zakresie – tłumaczy w rozmowie z portalem RadioZET.pl Mikołaj Rogalewicz, ekspert ds. cyberbezpieczeństwa i nowych technologii Fundacji Instytutu Cyberbezpieczeństwa.

Zobacz:  Dyrektywa NIS 2: Nowe wyzwanie dla cyberbezpieczeństwa w Unii Europejskiej

Specjalista zauważa ponadto, że konwencja wprowadza prawnie obowiązującą definicję, zgodnie z nią system AI to: “oparty na maszynie system, który dla celów jawnych lub ukrytych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób wygenerować wyniki, takie jak prognozy, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”.

Konwencja jest niezależna od wewnątrzunijnego Aktu w sprawie sztucznej inteligencji, który wszedł w życie w sierpniu br. Obejmuje on regulacje dotyczące rozwoju, wdrażania i wykorzystywania systemów AI na rynku UE. Nowe unijnej przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to m.in. systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe, i nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące do rozpoznawania twarzy. Zakazane są też rozpoznawanie z pomocą AI emocji w miejscu pracy i instytucjach edukacyjnych oraz prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech).

Źródło: RadioZET.pl

Oceń artykuł

Inne wpisy

Odwiedź nasze media społecznościowe

18,388FaniLubię
243ObserwującyObserwuj
432SubskrybującySubskrybuj

Ostatnie artykuły

× Chat