Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

Refine search results

Journals help
Years help
Authors help

Results found: 25

first rewind previous Page / 2 next fast forward last

Search results

Search:
in the keywords:  AI
help Sort By:

help Limit search:
first rewind previous Page / 2 next fast forward last
EN
Wrocław University of Science and Technology, Poland This article is a review of the book Making AI Intelligible. Philosophical Foundations, written by Herman Cappelen and Josh Dever, and published in 2021 by Oxford University Press. The authors of the reviewed book address the difficult issue of interpreting the results provided by AI systems and the links between human-specific content handling and the internal mechanisms of these systems. Considering the potential usefulness of various frameworks developed in philosophy to solve the problem, they conduct a thorough analysis of a wide spectrum of them, from the use of Saul Kripke’s work to a critical analysis of the explainable AI current.
Prakseologia
|
2019
|
vol. 161
271-290
PL
Biznes odgrywa dominującą rolę w rozwoju produktów i usług wykorzystujących sztuczną inteligencję. Wyzwaniem jest zapewnienie, aby takie produkty i usługi były etyczne. Trudność zmierzenia się z tym zadaniem wynika z faktów, że (a) proces ich rozwoju jest nietransparentny; (b) nie zawsze firmy chcą brać udział w dyskusji na temat etyki sztucznej inteligencji oraz stosować się do jej wyników; (c) nowość zagadnienia powoduje, że rezultaty tych dyskusji nie powstają szybko i nie są praktyczne. Celem artykułu jest wskazanie różnych modeli etyki sztucznej inteligencji rozwijanych przez biznes, a także warunków i problemów, jakie łączą się z tym zadaniem. Pokazano w jaki sposób biznes odpowiada na wyzwania etyczne spowodowane przez zjawisko rozwoju sztucznej inteligencji. Omówiono również odpowiedź, jakiej na te wyzwania udzieliła Grupa Robocza Wysokiego Szczebla powołana przez Komisję Europejską do wypracowania kodeksu etyki sztucznej inteligencji.
EN
Business plays a dominant role in the development of products and services based on Artificial Intelligence (AI). The challenge is to ensure that products and services based on AI are ethical. The difficulty in dealing with this task stems from the facts that: a. the process of development is not transparent; b. companies do not always want to take part in discussionson the ethics of artificial intelligence and adhere to its results; c. the novelty of the issue causes that the results of these discussions do not arise quickly and are not practical. The aim of the article is to indicate the difficulty of conducting research on the ethics of AI developed by business. The article has been synthetically presented in what way business responds to ethical challenges brought about by the phenomenon of development of AI. The answer to these challenges was also given by the High-Level Working Group appointed by the European Commission to develop a code of artificial intelligence.
PL
W niniejszym artykule omówiono główne wyzwania związane z odpowiedzialnością za szkody wyrządzone przez systemy sztucznej inteligencji (AI), które należy odpowiednio uwzględnić w systemie kolizyjnym Unii Europejskiej. W pierwszej części artykułu autorzy wskazują na trzy główne wyzwania, a mianowicie: 1) określenie osób odpowiedzialnych, 2) optymalny reżim odpowiedzialności za delikty AI oraz 3) określenie systemów AI wysokiego ryzyka. W drugiej części artykułu autorzy dokonują oceny stosowania przepisów kolizyjnych rozporządzenia Rzym II z tej perspektywy. Argumentują, że zharmonizowane ramy prawne na szczeblu UE są niezbędne, aby uniknąć ryzyka rozdrobnienia prawnego w wypełnianiu luk powstałych w wyniku bezprecedensowego postępu technologicznego spowodowanego przez sztuczną inteligencję. Temu celowi powinny służyć również normy kolizyjne prawa prywatnego międzynarodowego.
EN
This article discusses the main challenges related to the liability for damages caused by artificial intelligence (AI) systems that need to be properly addressed by the European Union (EU) conflict-of-laws regime. In the first part of the paper authors point out three main challenges, namely: 1) determination of responsible persons, 2) optimal liability regime for AI torts, and 3) determination of high – risk AI systems. In the second part of the paper the authors assess the application of the conflict-of-law provisions of the Rome II Regulation from this perspective. This article argues that a harmonised legal framework at EU level is necessary to avoid the risk of legal fragmentation in filling the gaps created by unprecedented technological advances caused by AI. This objective should also be pursued by the conflict-of-laws rules of private international law.
6
Publication available in full text mode
Content available

Bot byłby tańszy od polonisty

89%
EN
The article discusses ChatGPT, a project developed by OpenAI, an organization focused on the development of artificial intelligence. ChatGPT is a type of Generative Pre-trained Transformer, a model of artificial intelligence designed to generate texts, translations, natural language analysis, and other tasks related to natural language processing. The article raises the question of whether ChatGPT can replace Polish language teachers soon, to which the answer is that it cannot. While ChatGPT can be a helpful tool for teachers, it cannot replace their role in teaching students to understand and apply grammar rules, vocabulary, and language structures, as well as shaping their communicative and cultural skills. ChatGPT can generate summaries or notes based on the provided text, and its results will be more precise if the  instruction is more specific. However, the tool cannot replace the human relationship, individual approach, and motivation that teachers provide to students.
PL
W publikacji omówiono możliwości ChatuGPT, który jest narzędziem opartym na systemie sztucznej inteligencji przeznaczonym do generowania tekstów, tłumaczeń, analizy języka naturalnego i innych zadań związanych z przetwarzaniem języka naturalnego. W artykule pojawia się pytanie, czy ChatGPT może w najbliższej przyszłości zastąpić nauczycieli języka polskiego. Choć ChatGPT może być pomocnym narzędziem dla nauczycieli, nie może zastąpić ich w nauczaniu uczniów rozumienia i stosowania reguł gramatycznych, słownictwa i struktur językowych, a także kształtowania ich umiejętności komunikacyjnych i kulturowych. ChatGPT może generować odpowiedzi oraz tworzyć teksty, a efekty jego pracy stają się precyzyjniejsze, jeśli instrukcje są bardziej szczegółowe. Jednak narzędzie to nie może zastąpić relacji międzyludzkich, indywidualnego podejścia i motywacji, które nauczyciele zapewniają uczniom.
EN
In this paper I will present a class of on-line games which apply the idea of Human computation (HC). HC outsources certain steps of the computation process to humans. This makes it possible to solve difficult AI problems which are to a significant extent inaccessible to present-day algorithms (such as the perception of natural scenes). The games I will present appear to be a very convenient medium for recruiting volunteers to solve these problems. The participants can have fun, at the same time helping to accomplish those tasks that are very demanding for machines, such as image labeling for web search purposes, digitising books for online use, etc. In the paper I will also present an idea for a game which will help to generate data for future psychological research.
EN
Theoretical background: The use of robots/AI in the workplace has grown rapidly in the last years. There is observed enlargement not only of the numbers of robots but also the quality of their functions and applications. Therefore, many questions of practical, scientific and moral nature have arisen. The flowering use of robots has drawn scientists’ attention to interactions between humans and robots. As a result, a new multidisciplinary research area – Human-Robot Interactions (HRI) – is growing. Representatives of HRI try to answer the questions like: How anthropomorphic features of robots may affect interactions between robots and employees? How are robots supposed to look and behave to make interactions more pleasant for employees? Can human cooperation with humanoid robots lead to the formation of socio-mechanical bonds?Purpose of the article: The paper aims to identify determinants of human-robot interactions in the workplace and identify key research problems in this area.Research methods: The method of a systematic review of the literature fulfiled the above-mentioned purpose. The Web of Science was chosen as the basic database. The list of publications from the Web of Science was supplemented with some other publications which were related to the topic.Main findings: There are several factors that determine the perception and quality of HRI in the workplace. Especially trust, anthropomorphic features of the robot, and organizational assignment may decide about the human acceptance of the use of a non-human agent and HRI. The concept of social interaction with robots is at an initial stage yet. An adopted research paradigm also plays an important role. It seems that the classical assumptions of organizational sociology will not stand the test of time. Researchers and practitioners are facing new challenges. Especially there are some ontological questions that are not easy to be answered unanimously. Can we treat a robot as a mechanical device or rather as a member of a newly created community?
EN
Online Dispute Resolution systems are becoming more popular, and more widely used, alternative to resolving various kinds of conflicts in courtroom. One of the most attractive, as well as defining aspects, is their strong reliance on new technologies. Amongst those technologies are slowly, but more and more often, popping up those based on artificial intelligence. In the following article, several of those will be introduced and subsequently the proposed regulatory framework of Act on Artificial Intelligence will be introduced as well. Regulatory duties of such technologies are determined by their placement in one of the three categories, therefore after the introductory part, this article will attempt to classify AI based ODR technologies in one of those categories. Lastly, the regulatory duties imposed on said systems by being placed in one of the categories will be introduced.
EN
The article presents the role of artificial intelligence technology in shaping international security. This particular technology is an example of modern technological innovation that can exert a transformational effect on international relations by altering the capabilities of states (in Waltz’s terms) and thus the balance of power in the international system. The argumentation is divided into three sections. The first one focuses on the role technology plays in IR theory. The second one presents how artificial intelligence technology works and discusses its four key features for international security. The third section introduces Charles Weiss’ theoretical concept for rendering interactions between technology and the international system and uses this distinction to elaborate on how AI may influence international relations in the future.
11
75%
Ethics in Progress
|
2019
|
vol. 10
|
issue 2
27-32
EN
David J. Gunkel in his latest book Robot Rights presents the opportunities and challenges of integrating robots into moral and legal systems. The research question asked by the author is “Can and should robots have rights”? Following the Humean distinction between “is” and “ought”, Gunkel creates four statements that either opt for or against incorporating robots into legal discourse. The four modalities group contrasting opinions developed by different scholars on the subject of the eponymous robot rights. The author provides readers with yet another alternative approach to the question of legal recognition of robots which is based on Levinasian philosophy.
12
75%
EN
We, as humans appropriated science. A scientist is associated only with a human being. It doesn't have to stay that way. Non-protein scientists may appear sooner than expected. We will be challenged soon. A new legal and ethical code will be needed, and above all, a redefinition of the concepts of science and scientist seems to be urgent to formulate. The appearance of superintelligence and machines in science will mean the need to re-evaluate its operation. Let's start noticing the law of artificial intelligence (AI), to build inclusive science with machines.
EN
Translating legal neuroscience with artificial intelligence: only in this way will there be a low percentage of wrongful convictions. For some time now, especially in common law jurisdictions, nanotechnology has not been such a remote idea for intervening in the brain activity of criminals. It is a valid reversible tool selective, precise and effective than psychopharmacological treatments. The technology, on which the neurodevices are based, provides a pulse that alerts the subject with such implanted tools,without inhibiting him from his free will and conscious control. The function is thus twofold: predictive and preventive-rehabilitative. The debated question is whether neurointervention should be only voluntary or also mandatory. Is neurointervention an essential component of sentencing or only one of its possible forms? An attempt will be made here to provide an opinion on how the use of nanotechnology applied to neurolaw is legitimate to the principles of substantive and procedural criminal law.
RU
Китайско-американское соперничество происходит во многих областях. В этой статье основное внимание уделяется технологической области, которая играет наибольшую роль во время пандемии коронавируса (COVID-19). Кроме того, научно-технический прогресс имеет решающее значение для сохранения преимущества перед другими странами. Полезной концепцией для анализа является соперничество держав, позволяющее ответить на вопрос исследования: что такое пандемия коронавируса (COVID-19), которая в настоящее время происходит в мире? Может ли она способствовать доминированию Китая в гонке сил с США? В исследовании используется качественный анализ доступных источников и, в частности, основное внимание уделяется случаю Ухани, который стал центром пандемии. Современные технологии, используемые в Китае, позволили замедлить распространение вируса в относительно короткие сроки. Результат: основываясь на анализе, можно предположить, что Китай ускорил работу над искусственным интеллектом, который может стать одним из ключевых факторов для получения доминирования над США в соперничестве за власть.
EN
The China-US rivalry takes place on many areas. In this article, attention is focused primarily on the technological area that plays the largest role during the coronavirus pandemic (COVID-19). In addition, scientific and technical progress is crucial for maintaining an advantage over other countries. A useful concept for the analysis is the rivalry of the powers allows to answer the research question: what is the coronavirus pandemic (COVID-19), which is currently taking place in the world, potential to contribute to China’s predominance in the race of powers with the US? The study uses a qualitative analysis of available sources and focuses, among others, on the case of Wuhan, which became the focus of a pandemic. Modern technologies used in China, allowed to slow down the spread of the virus in a relatively short time. Result: Based on the analysis, it can be assumed that China has accelerated work on artificial intelligence, which may be one of the key factors for gaining a predominance over the US in the power rivalry.
EN
The article presents considerations on the protection of image in the situation of its violation with the use of new technologies. The problem of image infringement in deepfake technology is discussed. The article presents what, in the eyes of the law, deepfake is, who is responsible for the image infringement made with the use of this technology and the currently functioning basic legal institutions of image protection. The author analyses the existing sources of law; moreover, in relation to the sources, the author uses the dogmatic-legal method by applying relevant provisions of private law, in particular civil law and copyright law. Also, reference to national jurisprudence and doctrinal views enables a critical analysis of the legal regulations in the context of protection of the right of publicity. The practical analysis of current legislation allows pointing out fundamental doubts about the accuracy and correctness of the regulations adopted in this area. It was found that national laws, on the one hand, provide protection of the image from being captured and disseminated in deepfake materials; on the other hand, these regulations may cause serious doubts in the doctrine and discrepancies in interpretation of the law. It has been concluded that rules on image and AI technology in general should be regulated in detail by the legal system.
PL
W artykule przedstawiono rozważania na temat ochrony wizerunku w sytuacji naruszenia przez nowe technologie. Refleksji został poddany problem naruszenia wizerunku przy wykorzystaniu technologii deepfake. W artykule rozstrzygnięto, czym w świetle przepisów prawa jest deepfake, kto ponosi odpowiedzialność za naruszenie wizerunku dokonane za pomocą tej technologii oraz przedstawiono obecnie funkcjonujące podstawowe instytucje prawne służące ochronie wizerunku. Autor przeprowadził analizę źródeł zastanych w stosunku do źródeł prawa. Wykorzystano metodę dogmatyczno-prawną przez zastosowanie odpowiednich przepisów prawa prywatnego, w szczególności prawa cywilnego i autorskiego oraz odwołanie się do orzecznictwa krajowego i poglądów doktryny, która umożliwiła krytyczną analizę przepisów prawa w kontekście ochrony prawa do wizerunku. Przeprowadzona analiza pozwoliła wskazać na podstawowe wątpliwości dotyczące prawidłowości przyjętych w tym zakresie regulacji. Stwierdzono, że z jednej strony przepisy prawa krajowego zapewniają ochronę wizerunku przed utrwalaniem i rozpowszechnianiem w materiałach deepfake’owych, ale z drugiej strony regulacje te mogą powodować poważne wątpliwości w doktrynie oraz rozbieżności w orzecznictwie. Wskazano, że przepisy dotyczące wizerunku oraz ogólnie technologii AI powinny zostać szczegółowo uregulowane w systemie prawnym.
PL
Cel: celem artykułu jest przedstawienie wyników badań jakościowych dotyczących analizy relacji zachodzących między AI a przedsiębiorczością organizacyjną. Badania te mają na celu określenie, za pomocą analizy jakościowej, jakiego rodzaju relacje zachodzą. AI jest elementem nowego trendu w rozwoju technologii cyfrowej, który określony jest akronimem DARQ. Jego elementami są następujące systemy cyfrowe: Distributed Ledger, Artificial Intelligence, Extended Reality, Quantum Computing. Metodologia: procedura badawcza składa się z następujących etapów: analizy literatury, przeprowadzenia badań jakościowych w grupie fokusowej, ewaluacji przez ekspertów i prezentacji wyników, przeprowadzenia trzech analiz przypadków z różnych branż w trakcie działalności, w których przedstawiono w jakim zakresie AI wpływa na przedsiębiorczością organizacyjną. Wyniki: badania wykazały poparcie użytkowników dla zastosowania technologii AI, zwłaszcza przy realizacji procedur wspomagających przedsiębiorczość organizacyjną. Zastosowane AI w organizacji umożliwia uzyskanie efektów dotyczących takich elementów przedsiębiorczości organizacyjnej, jak: kreowanie nowych rozwiązań strategicznych, oceny tych propozycji oraz monitorowania propozycji kierownictwa organizacji poprzez stosowanie takich narzędzi, jak kokpit menedżerski czy modele symulacyjne. Użytkowanie we współczesnej organizacji AI jest niezbędne dla doskonalenia wieloaspektowego i interdyscyplinarnego procesów wspomagających przedsiębiorczość organizacyjną. Zastosowanie AI pokazuje użyteczność technologii cyfrowej w operacyjnym i strategicznym zarządzaniu. Ograniczenia/implikacje badawcze: ze względu na brak materiałów empirycznych, szczególnie ilościowych, dotyczących zastosowań wszystkich poziomów kategoryzacji wykorzystania sztucznej inteligencji w omawianych przypadkach wymagane jest przeprowadzenie badań uzupełniających oraz pełniejszej analizy jej zastosowań. Oryginalność/wartość: uzasadniono tezę, iż systemy informatyczne zawierające rozwiązania technologii AI są pomocne w realizacji procedur wspomagających przedsiębiorczość organizacyjną. Uzupełnieniem postawionej tezy jest realizacja zadania badawczego polegającego na zbadaniu prawdziwości stwierdzenia, że konsekwencją zastosowań AI jest uzyskanie w organizacji zarówno efektów dotyczących generowania propozycji nowych rozwiązań rozwoju, jak i weryfikacja realności realizacji procedur proponowanych przez kierownictwo organizacji. Przeprowadzone badania koncentrują się na ocenie relacji zaawanasowanych technologii informatycznych z przedsiębiorczością organizacyjną.
EN
Purpose: This article aims to present the results of qualitative research on the analysis of the relationship between artificial intelligence (AI) and organizational entrepreneurship. The purpose of this research is to determine, in terms of qualitative analysis, what kind of relationships are taking place. AI is part of a new trend in the development of digital technology, defined by the acronym DARQ. Its elements are the following digital systems: Distributed Ledger, Artificial Intelligence, Extended Reality, Quantum Computing. Methodology: The research procedure consists of the following stages: a literature analysis, qualitative research in the focus group, evaluation by experts, and the presentation of results, conducting three case analyses from various industries during the activity, which present the extent to which AI affects organizational entrepreneurship. Results: The research showed user support for the use of AI technology, especially in the implementation of procedures that support organizational entrepreneurship. The AI applied in the organization enables us to obtain effects on such elements of organizational entrepreneurship as creating new strategic solutions, evaluating these proposals, and monitoring the approach of the organization’s management through the use of tools such as a management cockpit and simulation models. The use of artificial intelligence in a modern organization is necessary to improve multifaceted and interdisciplinary processes that support organizational entrepreneurship. The use of AI shows the usefulness of digital technology in operational and strategic management. Limitations: Due to the lack of empirical, especially quantitative, materials concerning the application of all levels of categorization of the use of artificial intelligence in the discussed cases, supplementary research is required to provide a more comprehensive analysis of its applications. Originality/value: The thesis was justified that IT systems containing AI technology solutions are helpful in the implementation of procedures supporting organizational entrepreneurship. The thesis is complemented by a study consisting of examining the truthfulness of the statement that the consequence of using AI is to obtain in an organization the effects of both generating proposals for new development solutions and verifying the feasibility of the implementation of the procedures proposed by the organization management. The conducted research focuses on the assessment of the relationship between advanced information technologies and organizational entrepreneurship.
17
63%
Ethics in Progress
|
2019
|
vol. 10
|
issue 2
52-67
EN
A defining goal of research in AI and robotics is to build technical artefacts as substitutes, assistants or enhancements of human action and decision-making. But both in reflection on these technologies and in interaction with the respective technical artefacts, we sometimes encounter certain kinds of human likenesses. To clarify their significance, three aspects are highlighted. First, I will broadly investigate some relations between humans and artificial agents by recalling certain points from the debates on Strong AI, on Turing’s Test, on the concept of autonomy and on anthropomorphism in human-machine interaction. Second, I will argue for the claim that there are no serious ethical issues involved in the theoretical aspects of technological human likeness. Third, I will suggest that although human likeness may not be ethically significant on the philosophical and conceptual levels, strategies to use anthropomorphism in the technological design of human-machine collaborations are ethically significant, because artificial agents are specifically designed to be treated in ways we usually treat humans.
EN
The aim of the article is to analyse selected issues related to artificial intelligence (AI), its impact on the financial market, taking into account opportunities and challenges, and to present recommendations in the areas of stability, security, and transparency of its application. The research tool used included the analysis of secondary data sources such as the relevant literature (both domestic and international), a systemic analysis of legal acts, and a review of available reports on the use of AI in the financial market. The continuous development of AI in financial markets is influenced by many factors, and it can be both an opportunity and a challenge. The adopted methodology allowed for the identification and specification of the areas where barriers to the use of AI exist. Based on examples, solutions have been presented as recommendations in this regard.
PL
Celem artykułu jest analiza wybranych zagadnień dotyczących sztucznej inteligencji – jej wpływu na rynek finansowy z uwzględnieniem istniejących szans i wyzwań – oraz przedstawienie rekomendacji w zakresie stabilności, bezpieczeństwa i przejrzystości jej zastosowania. Posłużono się w tym celu analizą danych wtórnych, takich jak literatura przedmiotu (krajowa i zagraniczna), analizą systemową aktów prawnych, a także przeglądem dostępnych raportów. Za nieustanny rozwój sztucznej inteligencji na rynkach finansowych odpowiada wiele różnorodnych czynników, co sprawia, że można go postrzegać zarówno jako szansę, jak i wyzwanie. Przyjęta w artykule metodologia pozwoliła na wyłonienie i sprecyzowanie obszarów, w których występują bariery utrudniające zastosowanie sztucznej inteligencji. Na podstawie wybranych przykładów przedstawiono rozwiązania będące rekomendacją w tym zakresie.
PL
Przedmiotem artykułu jest zagadnienie etyki sztucznej inteligencji (SI) w kontekście najistotniejszych dokumentów Unii Europejskiej opublikowanych w latach 2017–2020. Celem tekstu jest zaprezentowanie treści odnoszących się do etyki, w tym wartości i zasad, jakich według organów unijnych należy przestrzegać w procesach związanych z projektowaniem, tworzeniem i wdrażaniem produktów i usług opartych na inteligentnej technologii. Zasadnicze pytanie badawcze artykułu brzmi: w jaki sposób Unia Europejska ujmuje kwestię etyki sztucznej inteligencji? W poszukiwaniu odpowiedzi zadano pytania dodatkowe: jakie wartości są dla UE kluczowe do utrzymania? Jakimi zasadami powinni kierować się i jakie wymogi powinni spełniać twórcy inteligentnych maszyn? Jak rozumiana jest wartość godności człowieka, która w ujęciu Unii jest podstawą określania zasad i wartości w odniesieniu do SI? Jaką definicję pojęcia „godność człowieka” uznaje Unia Europejska i jakie koncepcje filozoficzne leżą u jej podstaw?
EN
This article concerns the ethics of artificial intelligence (AI), within the scope and perspective held by the European Union, as expressed in documents published over the 2017–2020 period. The aim of the article is to present the content related to ethics, including the values and principles which, according to European Union authorities, should be followed in processes related to the design, development and implementation of products and services based on intelligent technology. The main research question of this article is: how does the European Union address the issue of the ethics of AI? In search of answers, additional questions were asked: what values are the key to maintaining for the European Union? What principles should be followed and what requirements should be met by the creators of intelligent machines? How does the European Union define the value of “human dignity,” which in the European Union’s understanding is the basis for creating the principles and values in relation to AI? What definition of the concept of human dignity does the European Union support and what philosophical concepts underlie it?
EN
The article is devoted to two problems. First of them is the catalogue of entities liable for harms caused of the functioning of artificial intelligence in medicine. Second of them is the principles on which this liability is based. The study presents comments on the biding law, which show that the software, regardless of its advancement level, cannot be subject of rights and obligations under civil law – including compensation ones. The text considers the need to expand the group of entities with legal capacity to include intelligent software. This analysis led to the conclusion that such a change in the legal status would not be advantageous. The following part of the study presents the role of a medic who uses artificial intelligence in performing professional activities and the role of a patient in making a decision to provide a health service with the use of the described digital tools – in the context of the premises for liability for damages. The considerations contained in the last of essential parts of the article refer to the liability for harms of the software producer, as well as other persons who have an influence on the content of the software code. The study ends with a summary, in which the postulate de lege ferenda was submitted, that the liability of a medical professional using artificial intelligence in providing health services should be based on the principle of presumed fault, and the liability of the software producer or liability of other entities interfering in software code should become a strict liability by extending the definition of the product under Polish Civil Code.
PL
Artykuł poświęcono problemom: katalogu podmiotów ponoszących odpowiedzialność odszkodowawczą za funkcjonowanie sztucznej inteligencji w medycynie oraz zasad, na jakich opiera się owa odpowiedzialność. Zaprezentowano w nim uwagi dotyczące obowiązującego stanu prawnego, z których wynika, że oprogramowanie bez względu na poziom jego zaawansowania nie może być podmiotem praw i obowiązków cywilnoprawnych – w tym kompensacyjnych. Rozważono potrzebę rozszerzenia kręgu podmiotów dysponujących zdolnością prawną na gruncie prawa cywilnego o inteligentne oprogramowanie. Analiza w tym zakresie doprowadziła do wniosku, że podobna zmiana stanu prawnego nie byłaby korzystna. W dalszej części opracowania zaprezentowano rolę przedstawiciela zawodu medycznego wykorzystującego sztuczną inteligencję przy wykonywaniu czynności zawodowych oraz pacjenta, jeżeli chodzi o podjęcie decyzji o udzieleniu świadczenia zdrowotnego z użyciem opisywanych narzędzi cyfrowych – w kontekście przesłanek odpowiedzialności odszkodowawczej. Wywód zawarty w ostatniej spośród zasadniczych części artykułu odnosi się do odpowiedzialności odszkodowawczej producenta oprogramowania, a także innych osób mających wpływ na treść kodu oprogramowania. Opracowanie wieńczy podsumowanie, w ramach którego zgłoszono postulat de lege ferenda, aby odpowiedzialność profesjonalisty medycznego wykorzystującego sztuczną inteligencję przy udzielaniu świadczeń zdrowotnych oprzeć na zasadzie winy domniemanej, a odpowiedzialność producenta oprogramowania i innych podmiotów ingerujących w jego kod na zasadzie ryzyka poprzez rozszerzenie kodeksowej definicji produktu.
first rewind previous Page / 2 next fast forward last
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.