Prawo nie nadąża za technologią. Konieczne przepisy regulujące prace nad sztuczną inteligencją
Na rozwój sztucznej inteligencji Europa będzie przeznaczać 20 mld euro rocznie. Wszystko po to, by dogonić potentatów w tym obszarze, czyli Stany Zjednoczone i Chiny. SI w przyszłości może stanowić o przewadze gospodarczej poszczególnych krajów, zwłaszcza w kontekście rewolucji 4.0. Za technologią nie nadąża jednak prawo. Brakuje opracowanych zasad etycznych korzystania ze sztucznej inteligencji oraz odpowiedzialności za jej działanie – ocenia dr Agnieszka Besiekierska z Kancelarii Noerr.
– Wyzwania prawne związane z przemysłem 4.0 są wszędzie właściwie takie same i w Polsce nie różnią się one od innych krajów. Są to nowe tematy, na które prawo nie znajduje odpowiedzi. Można powiedzieć, że prawo nie nadąża za technologią. Bardzo dużo inicjatyw w tym zakresie pojawia się na poziomie UE i jest realizowanych w ramach jednolitego rynku cyfrowego – mówi agencji informacyjnej Newseria Biznes dr Agnieszka Besiekierska, adwokat, szefowa Praktyki Digitalizacji Biznesu w Kancelarii Noerr.
Deloitte wskazuje, że przemysł 4.0 należy do sześciu megatrendów, które będą kształtowały globalną gospodarkę. Blisko połowa firm już zaczęła wdrażać automatyzację procesów przy wykorzystaniu robotów.
Zmiany w prawie nie nadążają za cyfrową rewolucją, choć pierwsze przepisy weszły już w życie, przede wszystkim RODO czy ustawa o Krajowym Systemie Cyberbezpieczeństwa.
– Zdecydowano się na przygotowanie przepisów w zakresie najbardziej istotnych obszarów związanych z nowymi technologiami – zaznacza dr Agnieszka Besiekierska. – Istotną kwestią są dane osobowe, nieosobowe i przepływ tych danych. To bardzo istotne w związku z internetem rzeczy, analityką big data i oczywiście sztuczną inteligencją.
RODO wprowadziło jednolity standard dla wszystkich podmiotów przetwarzających dane osobowe w związku z działalnością w UE. Ustawa o Krajowym Systemie Cyberbezpieczeństwa obejmuje zasięgiem operatorów usług kluczowych, którzy muszą zapewnić zgodność swojego działania nie tylko z przepisami w zakresie cyberbezpieczeństwa, lecz także z RODO i przepisami krajowymi w obszarze danych osobowych.
Brakuje jednak rozwiązań, które dotyczyłyby szerokiego wykorzystywania sztucznej inteligencji
Tymczasem, jak wynika z badania SAS, Accenture Applied Intelligence, Intel i Forbes Insights, już ponad 70 proc. organizacji na świecie prowadzi projekty związane z SI.
– Rezolucja Parlamentu Europejskiego i komunikat Komisji Europejskiej „Sztuczna inteligencja dla Europy” kładą bardzo duży nacisk na rozwój sztucznej inteligencji w Europie. Podkreśla się, że Europa nie może zostać w tyle za Stanami Zjednoczonymi i Chinami, w związku z tym uruchamia się dodatkowe środki finansowe, mające służyć rozwojowi sztucznej inteligencji. Te tematy prawne są bardzo istotne, w szczególności w zakresie zasad etycznych korzystania ze sztucznej inteligencji oraz odpowiedzialności, ponieważ sztuczna inteligencja może stanowić bardzo niebezpieczne narzędzie – podkreśla dr Agnieszka Besiekierska.
Raport Digital Poland „Przegląd strategii rozwoju sztucznej inteligencji na świecie” podaje, że Chiny na rozwój AI w 2017 roku wydały 28 mld dol. W USA tylko na jawne badania nad SI rząd wydał w 2016 roku 1,2 mld dol., a dodatkowe 30 mld dol. stanowiły inwestycje sektora prywatnego. Pod względem sztucznej inteligencji Europa dopiero goni światowe potęgi. Unia Europejska zapowiada, że co roku na ten cel będzie trafiać 20 mld euro. Zdaniem ekspertki większe wydatki na SI nie zastąpią jednak ram prawnych.
– Proponuje się różne rozwiązania, m.in. kwestię odpowiedzialności za działania sztucznej inteligencji na zasadzie winy w nadzorze. Należy pamiętać, że rozwiązania oparte o sztuczną inteligencję są bardzo specyficzne, nie można ich porównać do niczego, co do tej pory istniało. Użytkownik sam nie do końca ma wpływ na to, w jaki sposób ta sztuczna inteligencja zadziała, ale nawet sam twórca, producent nie może ich do końca przewidzieć – przekonuje adwokat z Kancelarii Noerr.
Na możliwe zagrożenia wskazuje też raport „Złowrogie wykorzystanie sztucznej inteligencji” przygotowany przez przedstawicieli czternaście organizacji, m.in. Uniwersytet w Oksfordzie, Cambridge, czy organizacji OpenAI. Ryzykiem w rozwoju SI jest możliwość jej użycia w złej wierze – w sferze cyfrowej to np. kradzież danych i cyberataki, a w sferze politycznej np. do identyfikacji wrogów i ich eliminacji.
– Bot Microsoft w ciągu kilkunastu godzin obecności w mediach społecznościowych stał się rasistą i zwolennikiem Hitlera. Widać więc, jakie szkody może poczynić sztuczna inteligencja i jak trudno jest przypisać odpowiedzialność za jej działanie. Z jednej strony jest producent, twórca kodu, ale z drugiej strony użytkownik, który karmi to rozwiązanie oparte o sztuczną inteligencję pewnymi danymi i też może spowodować taki, a nie inny rozwój – ocenia dr Agnieszka Besiekierska.
Komentarze