Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 


 

POLECANE
Ukrainiec, który groził Polakom podpaleniami został deportowany. Jest nagranie z ostatniej chwili
Ukrainiec, który groził Polakom podpaleniami został deportowany. Jest nagranie

W niedzielę 31 sierpnia Straż Graniczna opublikowała w mediach społecznościowych nagranie przedstawiające deportację Ukraińca, który groził Polakom podpaleniami.

Von der Leyen: Europa ma plan wysłania wojsk na Ukrainę z ostatniej chwili
Von der Leyen: Europa ma plan wysłania wojsk na Ukrainę

– Europa ma "dość precyzyjny" plan wysłania wojsk na Ukrainę – oświadczyła w rozmowie z "Financial Times" szefowa KE Ursula von der Leyen.

TVN obraził się na Solidarność. Jest oświadczenie stacji z ostatniej chwili
TVN obraził się na Solidarność. Jest oświadczenie stacji

Stacja TVN24 bezpodstawnie uderzyła w NSZZ "Solidarność" w związku z obchodami 45. rocznicy Porozumień Sierpniowych. Związek proponował stacji udostępnienie sygnału Telewizji Republika, która realizowała i bezpłatnie udostępniała wszystkim chętnym transmisję z obchodów 45-lecia Solidarności.

Niemcy przerażeni. Niebezpieczny trend wśród młodych z ostatniej chwili
Niemcy przerażeni. Niebezpieczny trend wśród młodych

W Niemczech rośnie liczba zatruć gazem rozweselającym. W 2024 roku otrzymano w tej sprawie dwa razy więcej telefonów niż w 2023 roku.

Prezydent nie przeszedł obojętnie wobec łez młodej damy na obchodach 45-lecia NSZZ Solidarność z ostatniej chwili
Prezydent nie przeszedł obojętnie wobec łez młodej damy na obchodach 45-lecia NSZZ Solidarność

Prezydent Karol Nawrocki gościł dzisiaj w historycznej Sali BHP Stoczni Gdańskiej na uroczystościach 45. rocznicy powstania NSZZ "Solidarność" i podpisania Porozumień Gdańskich.

Gdańsk: Już jutro Msza Święta w 86. rocznicę wybuchu II wojny światowej z ostatniej chwili
Gdańsk: Już jutro Msza Święta w 86. rocznicę wybuchu II wojny światowej

W najbliższy poniedziałek 1 września 2025 r. o godz. 13:30 w Gdańsku na Placu Obrońców Poczty Polskiej odbędzie się Msza Święta w 86. rocznicę wybuchu II wojny światowej.

Szokująca relacja z meczu Polska–Izrael. Za flagę Palestyny na policję? z ostatniej chwili
Szokująca relacja z meczu Polska–Izrael. Za flagę Palestyny na policję?

Ochroniarze zagrozili mi zatrzymaniem za podżeganie do nienawiści na tle rasowym i narodowościowym za namalowaną na twarzy flagę Palestyny – relacjonuje kibic, który był na sobotnim meczu Polska–Izrael w Eurobaskecie.

Nowy problem Waldemara Żurka. Sędziowie na gapę nie uzyskali pozwolenia KRS na orzekanie z ostatniej chwili
Nowy problem Waldemara Żurka. Sędziowie "na gapę" nie uzyskali pozwolenia KRS na orzekanie

Sędziowie po 65. roku życia orzekają mimo formalnego zakazu. "Ogromny problem mają strony, których orzeczenia będą uchylane, a sprawy przekazywane do ponownego rozpoznania - komentuje niepokojące zjawisko mec. dr Bartosz Lewandowski. Nowy problem prawny ma też minister Waldemar Żurek.

Komunikat dla mieszkańców Lublina z ostatniej chwili
Komunikat dla mieszkańców Lublina

12 sierpnia 2025 roku w Urzędzie Marszałkowskim Województwa Lubelskiego stwierdzono naruszenie ochrony danych osobowych, polegające na nieuprawnionym skopiowaniu danych kadrowych przez pracownika Urzędu, który nie posiadał stosownego upoważnienia do ich przetwarzania.

Kreml i Kijów o dalszym ciągu wojny. Ofensywa w głąb terytorium Rosji z ostatniej chwili
Kreml i Kijów o dalszym ciągu wojny. "Ofensywa w głąb terytorium Rosji"

Kreml utrzymuje, że nie ma warunków do rozmów pokojowych i deklaruje kontynuację tzw. „specjalnej operacji wojskowej” na Ukrainie. Z kolei prezydent Ukrainy Wołodymyr Zełenski zapowiedział kolejne działania ofensywne w głąb terytorium Rosji. 

REKLAMA

Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 



 

Polecane
Emerytury
Stażowe