Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

Results found: 4

first rewind previous Page / 1 next fast forward last

Search results

Search:
in the keywords:  uczenie głębokie
help Sort By:

help Limit search:
first rewind previous Page / 1 next fast forward last
EN
Computer-aided translation is the oldest and at the same time the most prominent subject in the field of artificial intelligence. The idea of using computers to translate texts written in natural language is almost as old as the invention of the computer itself. At first it seemed easy to implement and it was expected that in a decade or so the profession of translator would finally disappear because only digital machines would do this kind of work. However, it took more than 60 years of intensive research for this dream to become a reality in modern times. A breakthrough in computer translation research was the application of computational techniques based on artificial neural networks using deep learning algorithms. In 2017, the translation service DeepL was launched, which is a computer program using deep learning in automatic translation. The program under consideration provides translation of very high quality between any pair of more than 20 languages. Among other things, the programme enables translation from and into Polish. The article presents a brief history of research on computer-aided translation, discusses the basic difficulties that had to be overcome on the way to building computer-aided translators, and discusses the basic approaches used in automatic translation. Finally, interesting results of experiments carried out with the program DeepL are presented, which prove its very high efficiency in translation between any pair of languages, regardless of the degree of their genetic affinity
PL
Przekład komputerowy jest najstarszym i zarazem najbardziej doniosłym zagadnieniem zaliczanym do obszaru sztucznej inteligencji. Pomysł zastosowania komputerów do tłumaczenia tekstów zapisanych w języku naturalnym jest prawie tak stary, jak sam wynalazek komputera. Pierwotnie rzecz wydawała się łatwa do realizacji i oczekiwano, że za kilkanaście lat zawód tłumacza ostatecznie zaniknie, ponieważ tego rodzaju prace będą wykonywały wyłącznie maszyny cyfrowe. Potrzeba było jednak ponad 60 lat intensywnych badań, aby marzenie to mogło się urzeczywistnić w czasach nam współczesnych. Przełomem w badaniach nad przekładem komputerowym było zastosowanie technik obliczeniowych bazujących na sztucznych sieciach neuronowych z wykorzystaniem algorytmów uczenia głębokiego. W 2017 roku uruchomiony został serwis tłumaczeniowy DeepL, który jest programem komputerowym wykorzystującym uczenie głębokie w translacji automatycznej. Rozważany program zapewnia przekład o bardzo wysokiej jakości pomiędzy dowolnie wybraną parą spośród ponad 20 języków. Między innymi program ten umożliwia tłumaczenie z i na język polski. W artykule przedstawiono krótką historię badań nad przekładem komputerowym, omówiono główne trudności, które należało przezwyciężyć na drodze do budowy tłumaczy komputerowych, oraz omówiono podstawowe podejścia wykorzystywane w translacji automatycznej. Na zakończenie zaprezentowano interesujące wyniki eksperymentów przeprowadzonych z udziałem programu DeepL, które dowodzą jego bardzo wysokiej skuteczności w tłumaczeniu pomiędzy dowolnie wybraną parą języków, niezależnie od stopnia ich genetycznego pokrewieństwa.
EN
Paper presents impact of the neural network architecture on the training effectiveness and training time. Selected network architectures and training algorithm are described. Presented experimental results of research confirming the significant influence of architecture on the success of network training.
PL
W artykule przedstawiono wpływ architektury sieci neuronowej na skuteczność i czas uczenia sieci. Opisano wybrane architektury sieci, algorytm uczenia oraz zaprezentowano wyniki badań potwierdzających znaczący wpływ architektury na sukces uczenia sieci.
PL
Cel: Celem niniejszej analizy jest opracowanie i zastosowanie nowego modelu HexGIN (heterogeniczne rozszerzenie dla izomorfizmu sieci grafowych) do danych z dochodzenia dziennikarskiego FinCEN oraz porównanie jego jakości predykcji z istniejącymi rozwiązaniami, takimi jak sieć SAGE i wielowarstwowa sieć neuronowa (MLP). Metodyka: W badaniach wykorzystano dane ze śledztwa FinCEN do opracowania i zastosowania modelu HexGIN w zadaniu przewidywania beneficjenta sieci powiązanych transakcji finansowych. Skuteczność modelu porównano z istniejącymi rozwiązaniami wykorzystującymi sieci neuronowe grafu w serii eksperymentów z walidacją krzyżową. Wyniki: Eksperymentalne wyniki na danych walidacji krzyżowej i zestawie testowym potwierdzają potencjalne zalety HexGIN w porównaniu z istniejącymi rozwiązaniami, takimi jak MLP i SAGE. Proponowany model przewyższa inne algorytmy pod względem wyniku miary F1, precyzji i ROC AUC, w fazie zarówno treningowej, jak i testowej. Implikacje i rekomendacje: Wyniki pokazują potencjał heterogenicznych grafowych sieci i ich wysoce ekspresyjnych implementacji, takich jak GIN, w analizie transakcji finansowych. Potrzebne są dalsze badania, zwłaszcza w celu połączenia proponowanego modelu z innymi istniejącymi algorytmami i przetestowania rozwiązania na różnych zestawach danych dotyczących problemu prania brudnych pieniędzy. Oryginalność/wartość: W przeciwieństwie do wielu badań, które opierają się na syntetycznych lub nieujawnionych źródłach danych związanych z praniem brudnych pieniędzy, to studium przypadku opiera się na publicznie dostępnych, rzeczywistych, heterogenicznych danych transakcyjnych, będących częścią większego śledztwa dziennikarskiego. Wyniki wskazują obiecujący kierunek dla rozwoju nowoczesnych hybrydowych narzędzi do analizy podejrzanych transakcji, opartych na heterogenicznych sieciach grafowych.
EN
Aim: This study aimed to develop and apply the novel HexGIN (Heterogeneous extension for Graph Isomorphism Network) model to the FinCEN Files case data and compare its performance with existing solutions, such as the SAGE-based graph neural network and Multi-Layer Perceptron (MLP), to demonstrate its potential advantages in the field of anti-money laundering systems (AML). Methodology: The research employed the FinCEN Files case data to develop and apply the HexGIN model in a beneficiary prediction task for a suspicious transactions graph. The model's performance was compared with the existing solutions in a series of cross-validation experiments. Results: The experimental results on the cross-validation data and test dataset indicate the potential advantages of HexGIN over the existing solutions, such as MLP and Graph SAGE. The proposed model outperformed other algorithms in terms of F1 score, precision, and ROC AUC in both training and testing phases. Implications and recommendations: The findings demonstrate the potential of heterogeneous graph neural networks and their highly expressive architectures, such as GIN, in AML. Further research is needed, in particular to combine the proposed model with other existing algorithms and test the solution on various money-laundering datasets. Originality/value: Unlike many AML studies that rely on synthetic or undisclosed data sources, this research was based on a publicly available, real, heterogeneous transaction dataset, being part of a larger investigation. The results indicate a promising direction for the development of modern hybrid AML tools for analysing suspicious transactions; based on heterogeneous graph networks capable of handling various types of entities and their connections.
EN
Postęp technologiczny w dziedzinie głębokiego uczenia znacząco przyczynił się do rozwoju syntezowania głosu, umożliwił tworzenie realistycznych nagrań audio, które mogą naśladować indywidualne cechy głosów ludzkich. Chociaż ta innowacja otwiera nowe możliwości w dziedzinie technologii mowy, niesie ze sobą również poważne obawy dotyczące bezpieczeństwa, zwłaszcza w kontekście potencjalnego wykorzystania technologii deepfake do celów przestępczych. Przeprowadzone badanie koncentrowało się na ocenie wpływu syntetycznych głosów na systemy biometrycznej weryfikacji mówców w języku polskim oraz skuteczności wykrywania deepfake’ów narzędziami dostępnymi publicznie, z wykorzystaniem dwóch głównych metod generowania głosu, tj. przekształcenia tekstu na mowę oraz konwersji mowy. Jednym z głównych wniosków analizy jest potwierdzenie zdolności syntetycznych głosów do zachowania charakterystycznych cech biometrycznych i otwierania drogi przestępcom do nieautoryzowanego dostępu do zabezpieczonych systemów lub danych. To podkreśla potencjalne zagrożenia dla indywidualnych użytkowników oraz instytucji, które polegają na technologiach rozpoznawania mówcy jako metodzie uwierzytelniania i wskazuje na konieczność wdrażania modułów wykrywania ataków. Badanie ponadto pokazało, że deepfaki odnalezione w polskiej części internetu dotyczące promowania fałszywych inwestycji lub kierowane w celach dezinformacji najczęściej wykorzystują popularne i łatwo dostępne narzędzia do syntezy głosu. Badanie przyniosło również nowe spojrzenie na różnice w skuteczności metod konwersji tekstu na mowę i klonowania mowy. Okazuje się, że metody klonowania mowy mogą być bardziej skuteczne w przekazywaniu biometrycznych cech osobniczych niż metody konwersji tekstu na mowę, co stanowi szczególny problem z punktu widzenia bezpieczeństwa systemów weryfikacji. Wyniki eksperymentów podkreślają potrzebę dalszych badań i rozwoju w dziedzinie bezpieczeństwa biometrycznego, żeby skutecznie przeciwdziałać wykorzystywaniu syntetycznych głosów do nielegalnych działań. Wzrost świadomości o potencjalnych zagrożeniach i kontynuacja pracy nad ulepszaniem technologii weryfikacji mówców są ważne dla ochrony przed coraz bardziej wyrafinowanymi atakami wykorzystującymi technologię deepfake.
first rewind previous Page / 1 next fast forward last
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.