In 2023, we saw the rise of artificial intelligence (AI) and its expansion to mass use by users around the world. However, AI also brings significant privacy challenges, as do all previous significant changes in modern technology. Globally, two approaches to AI in the context of data protection can be observed, one approach represented mainly by the United States of America and the other approach represented mainly by the European Union. The US focuses mainly on innovation and flexibility, while the EU emphasises privacy and security over technological advancement. The present paper will focus on the protection of users when using AI and the specific privacy risks of AI, including unauthorised access to sensitive data, misuse of data for tracking and profiling users, and lack of transparency of algorithms. In relation to the risks of using AI, the paper will focus on the EU’s proposed regulation setting out harmonised rules for AI, the so-called AI Act. This would provide a comprehensive framework for AI regulation, including obligations for AI developers and users, to minimise risks and ensure the ethical use of AI. Finally, the paper will focus on whether the AI Act effectively ensures the protection of users in the context of AI.
CS
V roce 2023 jsme zažili vzestup umělé inteligence (AI) a její rozšíření k masovému používání uživateli po celém světě. Umělá inteligence však také přináší významné výzvy v oblasti ochrany osobních údajů, tak jako všechny předchozí výrazné změny v oblasti moderních technologií. Celosvětově lze sledovat dva přístupy k AI v souvislosti s ochranou osobních údajů, jeden přístup reprezentují zejména Spojené státy americké a druhý přístup reprezentuje zejména Evropská unie. USA se zaměřují zejména na inovace a flexibilitu, zatímco EU klade důraz na ochranu soukromí a bezpečnost nad technologický posun. Předkládaný příspěvek se zaměří na ochranu uživatelů při užívání umělé inteligence a na konkrétní rizika ochrany osobních údajů u AI zahrnující neoprávněný přístup k citlivým datům, zneužití dat pro sledování a profilování uživatelů a nedostatečnou transparentnost algoritmů. V souvislosti s riziky užívání AI se příspěvek zaměří na nařízení stanovující harmonizovaná pravidla pro umělou inteligenci EU, tzv. AI Act, publikovaný EU. Ten by měl představovat komplexní rámec pro regulaci AI, který zahrnuje povinnosti pro vývojáře a uživatele AI, s cílem minimalizovat rizika a zajistit etické využití AI. Příspěvek se na konci bude zabývat tím, zda AI Act efektivně zajišťuje ochranu uživatelů v souvislosti s AI.
The dynamic development of technologies known as artificial intelligence (AI) raises challenges and concerns about its applications in social life, including negative effects on the accuracy of democratic processes. Risks, related to manipulation and the spread of disinformation or propaganda on online platforms, may – with the use of AI – multiply. In electoral processes, the creation of false images of reality or the use of bots to control the electoral agenda, threaten to disrupt communications and even uncertain election results, and ultimately destroy democracy. However, properly designed AI tools can also improve democratic processes, more deeply engaging people as potential voters. Pan-European organizations, have pointed out the need to establish international standards for the application of AI, so that this technology is not tucked away in a “black box of algorithms,” which should be transparent, understandable and controlled according to established principles of accountability.
PL
Dynamiczny rozwój technologii określanych jako sztuczna inteligencja (SI) rodzi wyzwania i obawy dotyczące jej zastosowań w życiu społecznych, w tym negatywnych skutków dla prawidłowości procesów demokratycznych. Znane już zagrożenia, związane z manipulacjami i rozprzestrzenianiem dezinformacji czy propagandy w komunikacji na platformach internetowych, mogą – przy pomocy SI – ulec zwielokrotnieniu. W procesach wyborczych tworzenie fałszywych obrazów rzeczywistości czy wykorzystanie botów do sterowania agendą wyborczą, grożą zakłócaniem komunikacji, a nawet niepewnymi wynikami wyborów, a w konsekwencji destrukcją demokracji. Jednakże odpowiednio zaprojektowane narzędzia SI mogą także demokratyczne procesy usprawniać, głębiej angażując ludzi jako potencjalnych i świadomych wyborców. Organizacje międzynarodowe o zasięgu paneuropejskim, takie jak Rada Europy, UE czy OBWE, wskazywały na konieczność ustanowienia międzynarodowych standardów zastosowanie SI, aby tej technologii nie schowano w „czarnej skrzynce algorytmów”, które powinny być transparentne, zrozumiałe i kontrolowane zgodnie z ustalonymi zasadami odpowiedzialności.
This research paper presents an analysis of social awareness regarding personal data security in the context of Artificial Intelligence. In recent years, AI has been evolving rapidly, particularly in its use of personal data for various purposes. The thesis examines legal regulations and their development within the legal system, including selected legal acts of the European Union. A survey was conducted, and its analysis along with commentary is included in the paper. The findings indicate that social awareness of the safe use of AI remains unsatisfactory and does not reflect the realities of current technological advancement. Many respondents are unaware of relevant legal acts or available means to protect themselves against the unlawful use of their personal data by AI systems. This paper also discusses numerous risks posed by AI related to the illegal processing of personal data, as well as selected approaches and potential safeguards against such threats.
PL
Celem niniejszego artykułu jest analiza świadomości społecznej na temat bezpieczeństwa danych osobowych w świecie sztucznej inteligencji. Szczególnie w ostatnich latach wraz z prężnym rozwojem AI dostrzec możemy jej powiązanie z danymi osobowymi, które wykorzystuje na wielu płaszczyznach. Artykuł zawiera analizę różnych regulacji prawnych wraz z ich rozwojem, także na płaszczyźnie Unii Europejskiej. Świadomość społeczna na temat bezpiecznego wykorzystania sztucznej inteligencji nie jest zadowalająca i odbiega od stanu faktycznego, wielu respondentów nie zna zarówno żadnych regulacji prawnych, jak i sposobów ochrony przed niechcianym wykorzystaniem danych osobowych przez AI (ang. artificial intelligence). Opisane zostały również liczne zagrożenia związane z nielegalnym użyciem danych osobowych przez sztuczną inteligencję, a także propozycje ochrony przed nimi.
With the rise of new tools and technological solutions, public administration services are increasingly attempting to incorporate them into administrative processes to improve efficiency. One of the most fundamental challenges historically faced by police forces worldwide was the inability to identify a criminal based solely on a facial description. This issue was largely addressed by technological advancements that enabled the creation of mugshots of suspected individuals. Currently, the police face a new ethical dilemma: the use of artificial intelligence to match photos of suspects with images of similar-looking individuals. This article focuses on highlighting the potential problems that may arise if such measures are widely implemented in police work, exploring ways to mitigate those issues, and examining the compatibility of AI usage in policing with the current legal framework of Poland and the European Union.
PL
Wraz z rozwojem narzędzi i rozwiązań technologicznych pojawia się próba zaaplikowania nowych technologii w ramach działań administracji, tak aby umożliwić sprawniejsze wykonywanie obowiązków, w tym również przez służby policyjne. Jednym z odwiecznych problemów policji była niemożność odnalezienia sprawcy po samym opisie twarzy, jednak postęp technologiczny umożliwił zawieranie wizerunków sprawców na zdjęciu, co przyczyniło się do sprawniejszego odnajdywania poszukiwanych osób. Obecnie policja staje przed nowym wyzwaniem etycznym, jakim jest zastosowanie sztucznej inteligencji (SI) w kontekście identyfikacji osób podejrzanych spośród wizerunków podobnych osób. Tematem niniejszego artykułu jest przedstawienie problemów, które mogą wyniknąć w przypadku zmasowanego zaimplementowania sztucznej inteligencji do pracy policyjnej, możliwości przeciwdziałania im oraz sprawdzenie zgodności korzystania ze sztucznej inteligencji w obecnym stanie prawnym Polski i UE.
AI-based personalization is a technology that uses vast amounts of personal data to tailor experience for online user and provide them with information they require. On one hand, it can make it easier for users to receive relevant information, on the other hand it can also manipulate their decision-making process, lower their personal autonomy, as well as intrude in their privacy. The aim of this paper is to answer the question whether the current EU laws efficiently protect personal autonomy and the rights to privacy and data protection of online users in the context of AI-based personalization. The paper explores the notion of “efficient protection” and the specific legal challenges that AI-based personalization poses for the protection of personal autonomy, privacy, and data protection.
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.