Zamknij

W tym roku modele polskiej sztucznej inteligencji zostaną pilotażowo wdrożone w MC

14:47, 02.03.2025 Aktualizacja: 14:54, 02.03.2025
Skomentuj PAP PAP

Ministerstwo Cyfryzacji przedstawiło w tym tygodniu PLLuM, czyli 18 modeli polskiej sztucznej inteligencji przeznaczonych dla firm, administracji publicznej i naukowców, oraz chatbot, z którego darmo może skorzystać każdy użytkownik.

PLLuM, czyli modele polskiej sztucznej inteligencji, w tym roku będą pilotażowo wdrożone w resorcie cyfryzacji i w wybranym urzędzie - poinformowała PAP dr Agnieszka Karlińska, która pokieruje konsorcjum HIVE. Dodała, że największym wyzwaniem było przeszkolenie przez ekspertów modeli AI.

"HIVE to wdrożeniowa kontynuacja PLLuM, realizowana do końca 2025 roku. Rozszerzamy konsorcjum o dwie dodatkowe jednostki, czyli Centralny Ośrodek Informatyki (COI) i Cyfronet AGH" - podała PAP dr Agnieszka Karlińska z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK. Wyjaśniła, że COI zapewni wsparcie wdrożeniowe, a Cyfronet, który dysponuje największym superkomputerem w Polsce, moc obliczeniową.

Modele PLLuM będą rozwijane pod kątem zastosowań w urzędach, w postaci tzw. asystentów urzędniczych oraz asystenta w mObywatelu. Inteligentni asystenci mają mieć formę chatbotów i będą się specjalizować w pytaniach zadawanych urzędnikom i przez urzędników oraz udzielaniu odpowiedzi na pytania Polaków w mObywatelu - sprecyzowała dr Karlińska.

Jak poinformowała, Ministerstwo Cyfryzacji planuje pilotażowe wdrożenie modeli w resorcie w tym roku. "Chcemy je też pilotażowo wdrożyć w jednym wybranym urzędzie, później chcielibyśmy udostępnić rozwiązania AI w kolejnych" - dodała.

"Dysponujemy małymi modelami, które jak najbardziej można będzie wdrożyć nawet w mniejszych urzędach" - podkreśliła. Wyjaśniła, że jest to możliwe, ponieważ część modeli zostało stworzonych w architekturze MoE (ang. Mixture of Experts), która optymalizuje liczbę aktywnych parametrów, co poprawia wydajność i redukuje zużycie zasobów.

Do głównych wyzwań przy tworzeniu polskiego modelu AI należało zgromadzenie odpowiednio dużego zbioru danych w języku polskim - przekazała ekspertka. "Dbaliśmy o to, żeby dane pozyskiwać w sposób etyczny i legalny. Rozpoczęliśmy od gruntownej analizy stanu prawnego, w szczególności przepisów prawa polskiego i unijnego właściwych dla ochrony praw autorskich. Duży nacisk położyliśmy na pozyskiwanie danych bezpośrednio od wydawców na podstawie umów licencyjnych. W przypadku danych ze źródeł publicznie dostępnych weryfikowaliśmy licencje kolejnych zasobów oraz obecność zastrzeżeń względem TDM, czyli dozwolonego użytku w zakresie eksploracji tekstów i danych" - podkreśliła.

Jak wskazała, kolejnym wyzwaniem było dostrajanie i "wychowanie" modeli na podstawie tzw. instrukcji i preferencji, które z założenia miały być "przede wszystkim organiczne, tzn. opracowywane przez ludzi".

Instrukcje to zestawy zapytań (ang. prompty, pl. pobudzenia) i wzorcowych odpowiedzi, na podstawie których model sztucznej inteligencji uczy się, jak wykonywać konkretne zadania, np. tworzyć e-maile - wyjaśniła dr Karlińska. Jak dodała, "ręczne" tworzenie instrukcji polegało na tym, że osoby działające w PLLuM, głównie językoznawcy, pisali pobudzenia, tak jak robi to użytkownik czatbota, a następnie tworzyli modelowe odpowiedzi i całe dialogi.

Preferencje to natomiast zestawy składające się z pobudzenia, odpowiedzi preferowanej (lepszej) i odpowiedzi odrzucanej (gorszej) - wskazała ekspertka. "Poprzez preferencje chcieliśmy nauczyć modele tworzenia odpowiedzi z jednej strony poprawnych i pomocnych, z drugiej - możliwie wyważonych i bezpiecznych. Dlatego odpowiedzi ocenialiśmy jako lepsze albo gorsze nie tylko pod kątem merytorycznym, ale także pod względem bezstronności i szeroko rozumianego bezpieczeństwa" - podkreśliła. Jak wyjaśniła, zespół sprawdzał, czy odpowiedzi modelu są wolne od potencjalnie szkodliwych dla odbiorcy treści, np. obraźliwych, niezgodnych z normami społecznymi czy wątpliwych pod względem etycznym i prawnym.

Jak podkreśliła, ręczne dostrajanie i "wychowywanie" polskiej AI było zadaniem czasochłonnym, gdyż trwało kilka miesięcy i wymagało koordynacji pracy wielu osób jednocześnie, szczególnie że "nie ma jasnych wytycznych, jak tworzyć instrukcje i preferencje dla modeli AI i jaka powinna być ich typologia".

"Właściciele zagranicznych modeli zazwyczaj nie publikują informacji na ten temat. Musieliśmy podejść do zadania eksperymentalnie. Myślę, że z dobrym skutkiem" - oceniła.

Polskie AI zostało opracowane w ramach konsorcjum PLLuM przez Politechnikę Wrocławską (dotychczasowy lider konsorcjum), Instytut Podstaw Informatyki PAN, Instytut Slawistyki PAN, Naukową i Akademicką Sieć Komputerową (NASK-PIB), Ośrodek Przetwarzania Informacji (OPI-PIB) oraz Uniwersytet Łódzki. Zamiast utworzonego wcześniej konsorcjum PLLuM, którego działania były rozpisane do końca 2024 r., resort zapowiedział powstanie konsorcjum HIVE, które będzie rozwijać polską sztuczną inteligencję i wdrażać ją w administracji. Na jego czele stanie - zgodnie z zapowiedzią MC - dr Agnieszka Karlińska z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.

Dane w ramach konsorcjum PLLuM zbierane były od lutego 2024 r.; trenowanie modelu trwało od czerwca do września ub.r.; w październiku model był douczany, a w listopadzie optymalizowany; według pierwotnych planów miał zostać opublikowany w grudniu ub.r.

Projekt realizowany jest na zlecenie Ministerstwa Cyfryzacji, które jest właścicielem wyników i kontroluje rozwój PLLuM. W 2024 roku resort przeznaczył na niego 14,5 mln zł, a w br. zabezpieczono 19 mln zł.

Monika Blandyna Lewkowicz (PAP)

Co sądzisz na ten temat?

podoba mi się 0
nie podoba mi się 0
śmieszne 0
szokujące 0
przykre 0
wkurzające 0
Nie przegap żadnego newsa, zaobserwuj nas na
GOOGLE NEWS
facebookFacebook
twitter
wykopWykop
komentarzeKomentarze

komentarz(0)

Brak komentarza, Twój może być pierwszy.

Dodaj komentarz

OSTATNIE KOMENTARZE

0%