The paper considers the problem of building trust in computational artefacts of the AGI (Artificial General Intelligence) type, which are defined from an ethical point of view as explicite moral agents. As a result of an analysis based on research of the literature and current trends in the development of AGI systems, several conditions have been presented for the construction of behavioural tests necessary to check the correctness of their functioning considered both from an ethical and social point of view. Conducting of such tests should simplify the market approval procedures of AGI systems at the level of manufacturers, the individual users and certification authorities.
PL
W artykule rozważany jest problem budowania zaufania do artefaktów obliczeniowych typu AGI (ang. Artificial General Intelligence), z etycznego punktu widzenia określanych jako podmioty moralne explicite. W wyniku analizy opartej na badaniach literatury oraz przedstawieniu aktualnych trendów w rozwoju systemów AI wskazanych jest kilka warunków skonstruowania testów behawioralnych niezbędnych do sprawdzania poprawności ich działania z etycznego punktu widzenia. Przeprowadzenie takich testów powinno ułatwić procedury etycznej aprobaty systemów AGI zarówno na poziomie wytwórców, indywidualnego użytkownika, jak i jednostek certyfikujących.
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.