Sprawdź, co wydarzyło się w świecie nauki i polityki międzynarodowej w I kwartale 2024!
Artykuł - zdjęcie główne
Przełom w polskiej AI: PLLuM jako krok ku przyszłości

„To jest mały krok człowieka, ale wielki skok dla ludzkości” – nieśmiertelne słowa Neila Armstronga, wypowiedziane podczas historycznego lądowania na Księżycu, stały się synonimem przełomowych osiągnięć w historii świata. Te same słowa znajdują swoje odzwierciedlenie w nowoczesnych technologiach, zwłaszcza mówiąc o inicjatywie PLLuM (Polish Large Language Universal Model). Przy tym ambitnym projekcie, mamy do czynienia z wyjątkowym momentem – jest to zarówno wielki krok dla polskich naukowców, jak i ogromny skok w przód dla całej polskiej sztucznej inteligencji.

Projekt PLLuM (Polish Large Language Universal Model) – symbolizujący duży krok dla polskich naukowców i gigantyczny skok dla polskiej sztucznej inteligencji – otwiera nowy rozdział w rozwoju AI w Polsce, pokazując potencjał i ambicje kraju na globalnej arenie innowacji.

PLLuM nie tylko wskazuje na postęp nowoczesności w Polsce, ale też na ewolucję naszego społeczeństwa w kierunku bardziej zaawansowanej oraz powszechnie dostępnej technologii. Projekt ten, realizowany przez czołowe polskie jednostki naukowe, symbolizuje znaczące przesunięcie granic możliwości w dziedzinie AI, ustanawiając Polskę jako kluczowego gracza na globalnej arenie innowacji w sztucznej inteligencji.

Powstanie PLLuM otwiera nowy rozdział w AI

Uruchomienie PLLuM zbiegające się z pierwszą rocznicą powstania ChatGPT, stanowi symboliczny i znaczący moment dla polskiej sztucznej inteligencji. Ten projekt nie tylko zapowiada nową erę w dziedzinie AI w Polsce, ale także stanowi ważny krok w kierunku demokratyzacji technologii sztucznej inteligencji.

PLLuM, będąc w większości praktykowany na treściach polskojęzycznych, oferuje unikalną możliwość rozwoju i doskonalenia technologii przetwarzania języka naturalnego w kontekście języka polskiego. To otwiera drogę do tworzenia bardziej precyzyjnych i efektywnych narzędzi językowych, które mogą znaleźć zastosowanie w wielu sektorach, od edukacji, przez biznes, po administrację publiczną [1]. Rozwijając AI skoncentrowaną na języku polskim, PLLuM przyczynia się do wypełnienia luki w dostępnych narzędziach językowych, które często są ograniczone do języków dominujących jak angielski.

Innowacyjna siła Polski – instytucje krajowe zapisują nową kartę w świecie Sztucznej Inteligencji

Współpraca wiodących polskich instytucji naukowych na rzecz projektu PLLuM to nie tylko świadectwo rosnącej siły i znaczenia polskiej nauki, ale także znak, że Polska wpisuje się w globalny trend rozwoju sztucznej inteligencji. Zaangażowanie takich instytucji jak Politechnika Wrocławska, Państwowy Instytut Badawczy NASK, OPI PIB, Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki oraz Instytut Slawistyki PAN, stanowi istotną deklarację o sile i potencjale polskiego środowiska naukowego w dziedzinie AI.

PLLuM, będąc odpowiedzią na ograniczenia istniejących dotychczas modeli językowych, jak zamkniętość, wysokie koszty czy niedostateczny udział treści polskojęzycznych, otwiera nowe perspektywy. Jest to znaczący krok w kierunku tworzenia bardziej inkluzywnych i dostosowanych do lokalnych potrzeb technologii. Polska inicjatywa pokazuje, że nie musimy polegać wyłącznie na rozwiązaniach tworzonych przez globalnych gigantów technologicznych, lecz możemy samodzielnie tworzyć odpowiedzi na własne potrzeby. 

Projekt PLLuM ma szansę stać się kamieniem milowym w historii polskiej nauki i technologii, pokazując światu, że Polska potrafi nie tylko naśladować globalne trendy, ale również aktywnie je kształtować i wyznaczać nowe ścieżki w rozwoju sztucznej inteligencji.

Instytucje wchodzące w skład konsorcjum, mają wieloletnie doświadczenie w tworzeniu danych do trenowania i ewaluacji modeli przetwarzających język naturalny. Aktualnie większość modeli tworzonych na świecie jest trenowana głównie na zadaniach anglojęzycznych. Okazuje się, że coraz trudniej jest uzyskiwać istotne przyrosty jakości dla znanych benchmarków, brakuje jednak różnorodnych danych wielojęzycznych, a zwłaszcza danych treningowo-testowych do wychowywania modeli w języku polskim

– wskazuje dr inż. Jan Kocoń, z Katedry Sztucznej Inteligencji na Politechniki Wrocławskiej, Scientific Director PLLuM.

Główna różnica między PLLuM a ChatGPT leży w ich adaptacji do konkretnych języków. PLLuM jest specjalnie dostosowany do języka polskiego, co pozwala na lepsze rozumienie typowych dla tego języka wyrażeń, idiomów oraz aspektów kulturowych i historycznych Polski [2]. 

Projekt PLLuM, oprócz modelu trenowanego dla języka polskiego, dostarczy przede wszystkim dane do dostrajania modeli językowych pod polskie zadania oraz do wychowywania modelu z uwzględnieniem polskiego kontekstu i polskich danych. Dzięki temu możliwe będzie również dostrojenie, najlepszych obecnie, otwartych modeli językowych na tych danych i uzyskanie jeszcze lepszych jakościowo, wielojęzycznych modeli z poprawionym wsparciem języka polskiego. Liczymy na to, że takie otwarte dane będą również w przyszłości wykorzystywane przez inne instytucje do trenowania modeli, dzięki czemu język polski będzie jednym z liczących się języków przy przygotowywaniu modeli. Również bogaty zbiór benchmarkowy dołożony do innych tego typu zbiorów wielojęzycznych spowoduje, że aby inne modele osiągały lepszą ogólną skuteczność wielojęzyczną, będą musiały mieć również dobrą jakość dla języka polskiego

– dodaje dr inż. Jan Kocoń.

Twój wkład może zmienić przyszłość AI

Twórcy PLLuM zapraszają do współpracy różne podmioty – od ekspertów i naukowców, przez instytucje, po entuzjastów AI. Możliwości wsparcia są różnorodne: od dzielenia się specjalistyczną wiedzą, przez objęcie patronatem, aż po pomoc w promocji projektu [2]. Szczególnie cenna wydaje się propozycja udostępnienia danych do testowania  modelu, co jest kluczowe dla jego rozwoju i efektywności. PLLuM nie jest tylko projektem technologicznym, lecz także inicjatywą społeczną, mającą na celu budowanie silnej, współpracującej społeczności wokół pionierskiego rozwoju polskiej sztucznej inteligencji. 

Z perspektywy tworzenia własnego modelu i własnego zbioru danych, najważniejsze dla nas jest to, że od początku do końca będziemy mieli kontrolę nad tym procesem, co ułatwi dostosowywanie modelu do specyficznych zastosowań w przyszłości. Nie mamy gwarancji, że instytucje takie jak OpenAI lub nawet otwarte modele takie jak Mistral, będą na tyle często aktualizowane, by dopasować się np. do częstych zmian w polskim ustawodawstwie

– doprecyzowuje dr inż. Jan Kocoń, w rozmowie dla Coopernicus.

Posiadanie kontroli nad własnym modelem językowym i zbiorami danych pozwala więc na szybką adaptację do specyficznych, lokalnych zmian, takich jak aktualizacje w polskim ustawodawstwie. Dzięki temu, model można efektywnie dostosować do bieżących potrzeb i specyfików języka, unikając opóźnień oraz ograniczeń, które mogą występować przy korzystaniu z modeli opracowywanych przez zewnętrzne instytucje. 

Mając własny model, można go dowolnie często aktualizować. Ponieważ prace mają charakter otwarty, każda polska firma i instytucja będzie mogła skorzystać z tych doświadczeń i budować swoje rozwiązania na udostępnionych efektach projektu

– podkreśla naukowiec.

Szczególnie cenna wydaje się propozycja udostępnienia danych do testowania  modelu, co jest kluczowe dla jego rozwoju i efektywności. PLLuM nie jest tylko projektem technologicznym, lecz także inicjatywą społeczną, mającą na celu budowanie silnej, współpracującej społeczności wokół pionierskiego rozwoju polskiej sztucznej inteligencji. 

Bibliografia:

[1] NASK, Nie stać nas na to, by zostawać w tyle. Powstanie pierwszy otwarty wielki model językowy (PLLUM), https://www.nask.pl/pl/aktualnosci/5314,Nie-stac-nas-na-to-by-zostawac-w-tyle-Powstanie-pierwszy-polski-otwarty-wielki-m.html [dostęp: 11.02.2024]

[2] Politechnika Wrocławska, PLLuM – narzędzie, które uczy myśleć… maszyny po polsku, https://wit.pwr.edu.pl/aktualnosci/pllum-narzedzie–ktore-uczy-myslec-maszyny-po-polsku-246.html [dostęp: 11.02.2024]

[3] NASK Science, Duży Polski Model Językowy (PLLuM), https://science.nask.pl/research-areas/projects/7322 [dostęp: 11.02.2024]

Fot. Pixabay

Zuzanna Czernicka
Bio:
I am deeply immersed in the dynamic world of banking and FinTech. My focus encompasses critical areas such as foreign exchange, payments, and the cutting-edge landscape of FinTech regulation. My academic interests span a broad range of topics including electronic payments, Open Banking, blockchain impacts, the DeFi ecosystem, NFTs, ICOs, and tokenization. I am dedicated to understanding and analyzing the new regulatory frameworks shaping the FinTech world. Currently, I am writing my Bachelor's thesis on the robo-advisory services. This work reflects my commitment to understanding and contributing to the regulatory frameworks that are vital for the growth and governance of emerging financial technologies.
Napisany przez:

Zuzanna Czernicka

Dodaj komentarz