Aktualności

Kto ma prawo do rozwoju AI? Wątpliwości wokół projektu ustawy

21-11-2024 | Cyberbezpieczeństwo

Polska stoi przed ważnym wyzwaniem – wdrożeniem ustawy o systemach sztucznej inteligencji (AI), będącej częścią unijnej inicjatywy regulacyjnej AI Act, która ma dostosować polskie przepisy do europejskich standardów. Czy idziemy w dobrym kierunku? Już teraz pojawia się szereg pytań, również ze strony ekspertów PIKE. Podkreślają oni bowiem, że projekt ustawy pomija istotny aspekt współpracy z kluczowymi graczami – branżą IT i przemysłem ICT – które odgrywają kluczową rolę w rozwoju oraz wdrażaniu nowoczesnych technologii. Czy zignorowanie ich opinii nie ograniczy innowacyjności i nie wprowadzi niebezpiecznych patologii w stosowaniu AI?

ai-ilustracja

Po co regulować sztuczną inteligencję?

W miarę jak technologie AI zdobywają coraz szersze zastosowanie w codziennym życiu – w medycynie, sektorze finansowym, telekomunikacyjnym, po sektor publiczny – pojawia się potrzeba ustalenia przejrzystych i bezpiecznych przepisów, które weprą rozwój przedsiębiorstw oraz uchronią użytkowników przed nieodpowiedzialnym stosowaniem tej dziedziny wiedzy. Pomogłyby również ograniczyć ryzyko związane z dezinformacją, naruszeniami prywatności czy dyskryminacją.

Nowa ustawa w przygotowaniu

Projekt, choć nadal w sferze analiz i konsultacji, już budzi obawy sektora IT/ICT, który wskazuje na ryzyko nadregulacji oraz ograniczenia innowacyjności. PIKE apeluje o ścisłą współpracę ustawodawcy z praktykami branżowymi. Podkreśla, że brak udziału ekspertów technologicznych w procesie legislacyjnym może prowadzić do patologii we wdrażaniu nowych przepisów.

Lekcje z globalnych doświadczeń

Szybkie wdrażanie regulacji AI w różnych krajach pokazuje błędy, których można uniknąć w przyszłości. W Stanach Zjednoczonych, przepisy w sektorze finansowym wprowadzone w odpowiedzi na obawy o potencjalne ryzyko dyskryminacji lub błędne oceny kredytowe, przyniosły znaczące niejasności prawne. Zniechęciło inwestorów oraz zahamowało rozwój innowacyjnych narzędzi predykcyjnych dla banków i fintechów. Z kolei w Chinach szybkie regulacje technologii rozpoznawania twarzy skutkowały poważnymi naruszeniami prywatności czy intensyfikacją nadzoru obywateli. W Unii Europejskiej ambitne plany legislacyjne spotykają się z wyzwaniami nadmiernej regulacji, szczególnie w krajach o rygorystycznym podejściu do ochrony danych, jak Niemcy i Francja. Tam przepisy dotyczące AI są tak restrykcyjne, że utrudniają rozwój technologii w obszarach wymagających przetwarzania dużych zbiorów informacji. Przykładem są niemieckie firmy zajmujące się AI w sektorze medycznym, które napotykają trudności w testowaniu oraz wdrażaniu innowacji ze względu na surowe wymogi ochrony prywatności pacjentów. W rezultacie wiele europejskich startupów przenosi działalność poza UE, poszukując bardziej elastycznych regulacji. To niewątpliwie osłabia rozwój i konkurencyjność europejskiego sektora AI na arenie międzynarodowej.

Perspektywy

Przekazanie projektu ustawy do konsultacji publicznych z rynkiem 16 października br. dało branży szansę na wyrażenie opinii i zgłoszenie uwag. Oczekuje ona jednak, że polskie regulacje będą zgodne z unijnymi, ale jednocześnie umożliwią rozwój nowych technologii bez zbędnych ograniczeń.