Bezpieczeństwo w sieci. Polska pracuje nad unijnym aktem o usługach cyfrowych

Unijny akt o usługach cyfrowych obowiązuje już w Unii Europejskiej. W Ministerstwie Cyfryzacji odbyły się konsultacje dotyczące ogólnych założeń, na których ma być oparta polska ustawa wdrażająca regulację. Nowe przepisy mają poprawić bezpieczeństwo użytkowników w sieci, wspierać walkę z nielegalnymi treściami w internecie, a także doprecyzować kwestie dotyczące moderowania treści.

2024-02-22, 08:19

Bezpieczeństwo w sieci. Polska pracuje nad unijnym aktem o usługach cyfrowych
Zgodnie z nowymi regulacjami, platformy internetowe nie mogą wykorzystywać danych osób nieletnich i wrażliwych danych osobowych do profilowania w celach reklamowych. Foto: Ground Picture/shutterstock

Przepisy dotyczące bardzo dużych platform i wyszukiwarek internetowych obowiązują już od 25 sierpnia 2023 r. Za kontrolowanie przestrzegania przepisów unijnego aktu o usługach cyfrowych (Digital Services Act, DSA) wobec tych dużych podmiotów odpowiada Komisja Europejska.

17 lutego 2024 r. rozporządzenie zaczęło obowiązywać wobec wszystkich dostawców usług pośrednich (także tych mniejszych). Dostawcy usług pośrednich to np. serwisy społecznościowe, platformy handlu elektronicznego czy hostingodawcy.

Ochrona danych osobowych

Do tej pory każdy kraj Unii Europejskiej we własnym zakresie regulował przepisy dotyczące usuwania nielegalnych treści z internetu. Teraz są one ujednolicone dla wszystkich członków UE. Platformy będą zobowiązane do stworzenia systemu raportowania nielegalnych treści, np. szerzących nienawiść, przemoc czy pornografię dziecięcą.

Jeżeli chodzi o dane wrażliwe, w tym aspekcie dla prawidłowej ochrony danych osobowych zostało przyjęte w ramach UE rozporządzenie RODO. DSA nie narusza postanowień RODO, wprowadza jednak pewne dodatkowe rozwiązania mające lepiej chronić użytkowników. Platformy internetowe nie mogą wykorzystywać danych osób nieletnich i wrażliwych danych osobowych do profilowania w celach reklamowych.

REKLAMA

DSA wprowadza także kontrolę nad sposobem moderowania treści przez platformy, czego wcześniej nie było. Z jednej strony chodzi o sprawne usuwanie nielegalnych treści w internecie, z drugiej jest to kwestia ochrony praw użytkownika do odwołania się od decyzji platformy.


Posłuchaj

Wojciech Kanownik prezes Związku Cyfrowa Polska mówi o wejściu w życie unijnych przepisów regulujących rynek cyfrowy w Internecie i wzmacnianiu pozycji konsumentów ( "Ekspres Gospodarczy" Błażej Prośniewski PR1) 5:06
+
Dodaj do playlisty

 

Użytkownik, którego treść została usunięta lub zablokowana, powinien otrzymać od platformy uzasadnienie tej decyzji. Dodatkowo w przypadku platform, użytkownik powinien mieć możliwość odwołania się od decyzji platformy w ramach wewnętrznego systemu rozpatrywania skarg.

Działanie algorytmów

Przepisy DSA wymagają także, aby platformy udostępniały informacje na temat swoich zasad moderacji treści oraz działania algorytmów. Dzięki temu użytkownik może dowiedzieć się, jak ocenianie są treści i jak działają platformy.

REKLAMA


Muszą także wdrożyć wewnętrzny system rozpatrywania skarg. Konieczne jest przygotowanie środków przeciw nadużywaniu zgłoszeń i kontr-zgłoszeń, wprowadzić przejrzystość reklam internetowych oraz dbać o przygotowywanie sprawozdań.

Dla małych i średnich firm niektóre obowiązki, takie jak raportowanie czy audyty zewnętrzne, mogą nie być tak restrykcyjne jak dla większych platform internetowych. Celem takiego rozwiązania jest złagodzenie obciążeń administracyjnych i regulacyjnych dla mniejszych przedsiębiorstw.

Obecnie Ministerstwo Cyfryzacji pracuje nad projektem nowelizacji ustawy o świadczeniu usług drogą elektroniczną. W dniach 5-19 stycznia 2024 r. odbyły się konsultacje założeń do ustawy wdrażającej DSA, w wyniku których pojawiło się wiele uwag i opinii. Wkrótce projekt ma zostać wpisany do wykazu prac legislacyjnych.


PR24.pl, Ministerstwo Cyfryzacji, DoS, PR1, Błażej Prośniewski

REKLAMA

Polecane

REKLAMA

Wróć do strony głównej