Aktualne projekty

Nowe problemy i algorytmy dla eksploracji modeli programowania matematycznego (MathProM)

Model Programowania Matematycznego (PM) jest reprezentacją matematyczną zdolną do odzwierciedlenia niemal wszystkich typów rzeczywistych obiektów, np.: linii produkcyjnych, harmonogramów dostaw, przydziałów personelu. Model PM składa się ze zmiennych, które odpowiadają np.: wielkości produkcji, ograniczeń reprezentujących relacje między zmiennymi, np.: warunki produkcji, oraz funkcji celu, która odpowiada wynikowi, np.: kosztu produkcji. Rozwiązaniem dopuszczalnym jest wektor wartości zmiennych, który spełnia wszystkie ograniczenia. Rozwiązanie dopuszczalne, które minimalizuje funkcję celu, jest rozwiązaniem optymalnym. Wykorzystanie modeli PM jest w pełni zautomatyzowane dzięki solverom — narzędziom, które obliczają rozwiązania dopuszczalne lub optymalne. Jednak zbudowanie poprawnego modelu PM wymaga intensywnego szkolenia i wiedzy fachowej, a często okazuje się czasochłonne i podatne na błędy. Błędy w modelach PM są trudne do wykrycia i często pozostają niezidentyfikowane, dopóki optymalne rozwiązanie nie okaże się nieprzydatne w praktyce, skutkując wieloma iteracjami modelowania, kontroli zgodności i ulepszania modelu. MP mają wiele zalet w porównaniu z wieloma innymi reprezentacjami, np.: interpretowalna struktura oferująca wyjaśnienia dla decyzji, wykonywalna semantyka i gotowe do użycia solvery. Celem projektu jest pomoc ekspertom poprzez opracowanie nowych algorytmów Eksploracji Modeli PM. Osiągnięcia projektu są podzielone na cztery obszary związane z modelami PM: odkrywanie, kontrola zgodności, ulepszanie i weryfikacja w warunkach rzeczywistych. Zastosowanie znajdą stosunkowo proste w dostarczeniu dane, takie jak przykłady rozwiązań zarejestrowane przez komputery zarządzające modelowanym obiektem, dostępne symbole, np.: parametry, zbiory, zmienne i/lub inne opisy wiedzy dziedzinowej. Nowe algorytmy odkrywania zbudują z danych modele PM, które maksymalizują trzy kryteria: dopasowanie, precyzję i generalizację. Dopasowanie ocenia, jak dobrze model PM obejmuje dane, precyzja ocenia, jak ciasny jest model PM, a generalizacja mierzy, jak dobrze model PM opisuje różne instancje modelowanego obiektu. Nowe algorytmy kontroli zgodności obliczą w/w miary dla danego modelu PM i dostępnych danych. Nowe algorytmy ulepszania zidentyfikują braki w istniejącym modelu PM i zaproponują poprawki. Opracowane algorytmy wykorzystają wysokopoziomowe języki modelowania, np. AMPL i ZIMPL. Zostaną zaproponowane również nowe miary dopasowania, precyzji i uogólnienia, ponieważ dotychczasowe miary Sztucznej Inteligencji są w dużej mierze nieodpowiednie dla modeli PM, np. nagradzają modele równo za wszystkie przykłady i ignorują składnię, podczas gdy w przypadku większości modeli PM zwięzła reprezentacja i ciasne ograniczenia są ważniejsze. Opracowane zostaną algorytmy proponujące poprawki w modelach PM oparte o np.: nieredukowalny niespójny podzbiór ograniczeń i kontrprzykłady. Do tej pory większość prac w eksploracji modeli PM dotyczy problemu odkrywania. Jednak istniejące algorytmy są niedojrzałe i nie są gotowe do zastosowania w dużych rzeczywistych problemach. Głównymi wyzwaniami są: klątwa wymiarowości, która objawia się nawet dla 6-8 zmiennych, dane jednoklasowe, i/lub nieakceptowalna złożoność obliczeniowa. Ostatecznym celem projektu jest pokonanie tych wyzwań. Jedynym sposobem na wiarygodną walidację opracowanych algorytmów jest ich wykorzystanie do budowy modeli PM dla złożonych, rzeczywistych problemów Badań Operacyjnych (BO). W tym celu zbadamy obecne i przeszłe konkursy BO, np.: ROADEF i PACE. W konkursach wykorzystywane są problemy o dużym znaczeniu w przemyśle oraz dane przekazane przez międzynarodowe firmy. Wcześniejsze przykładowe problemy w tych konkursach to załadunek samochodów ciężarowych od Renault, planowanie konserwacji przez RTE, cięcie od Saint-Gobain i trasowanie zapasów od Air Liquide. Zaproponowane algorytmy wykorzystamy do opracowania modeli PM gotowych do rozwiązania problemów BO. Nasz wkład położy podwaliny pod lepsze narzędzia modelowania i optymalizacji dla niemal każdego sektora gospodarki. Należy pamiętać, że rozwiązywanie problemów mających swoje źródło w przemyśle nie jest celem projektu samym w sobie, a jedynie efektem ubocznym badań podstawowych nad algorytmami eksploracji modeli PM.

Grant: NCN SONATA BIS 2023/50/E/ST6/00237
Leader(s): Tomasz Pawlak, Group: Systemy neuro-symboliczne
Expected duration: 2024-2029

Opracowanie systemu informatycznego wykorzystującego SI do identyfikowania opinii konsumentów na temat bezpieczeństwa produktów i ich jakości

Celem projektu Produktoskop jest stworzenie innowacyjnego systemu wyszukującego i raportującego produkty, co do których istnieją wątpliwości dotyczące ich jakości, ze szczególnym uwzględnieniem przypadków praktyk Dual Quality stosowanych przez przedsiębiorców, na podstawie analizy opinii konsumenckich umieszczanych w Internecie. W celu budowy systemu zostaną opracowane i wykorzystane metody sztucznej inteligencji, co jest zgodne z celem głównym programu Infostrateg.

Grant: NCBR Infostrateg III (INFOSTRATEG-III/0003/2021)
Leader(s): Agnieszka Ławrynowicz, Mikołaj Sobczak, Group: Systemy neuro-symboliczne
Expected duration: 2022-2025
Website: https://pit.lukasiewicz.gov.pl/o/produktoskop/

New architectures and algorithms for neurosymbolic deep learning

Projekt dotyczy opracowania neurosymbolicznych algorytmów syntezy programów – automatycznego generowania kodu na podstawie zadanych specyfikacji – poprzez połączenie rozumowania symbolicznego z głębokim uczeniem. Skupiając się na metodach iteracyjnych, podejście to pozwala systemom uczyć się i udoskonalać częściowe rozwiązania, zwiększając efektywność i zdolność uogólniania na różne zadania. Badania obejmują reprezentacje grafowe, odpowiednie architektury sieci neuronowych i paradygmaty uczenia wspomagające syntezę. Modele teoretyczne będą implementowane, testowane i porównywane z aktualnym stanem wiedzy przy użyciu formalnych metryk. Rezultaty projektu mają na celu rozwój syntezy programów oraz zastosowań uczenia maszynowego wymagających złożonego rozumowania kombinatorycznego.

Grant: NCN PRELUDIUM 27 (2024/53/N/ST6/03961)
Leader(s): Piotr Wyrwiński, Group: Systemy neuro-symboliczne
Expected duration: 2025-2028
Website: https://ncn.gov.pl/sites/default/files/listy-rankingowe/2024-03-15-oppr4giwi8/streszczenia/623306-pl.pdf

Projektowanie materiałów sterowane danymi: sztuczna inteligencja jako narzędzie wspomagające syntezę nanokompozytów o hierarchicznej porowatości do zastosowań elektrokatalitycznych

W ramach projektu rozwijane będą nowe wyjaśnialne modele AI do predykcji własności związków chemicznych, modele generatywne proponujące nowe substraty chemiczne do tworzenia baterii oraz aplikacja narzędzia wspomagająca pracę chemików za pomocą wspomnianych modeli AI. Efektem projektu będzie również otwarta baza eksperymentalnie (chemicznie i fizycznie) przebadanych nowych substratów baterii.

Grant: NCN OPUS
Leader(s): Dariusz Brzeziński, Group: Systemy uczące się i eksploracja danych
Expected duration: 2024-2028

Metody wyjaśniania modeli uczenia maszynowego dla statycznych i zmiennych danych

Projekt dotyczy problematyki uczenia maszynowego i sztucznej inteligencji, a dokładniej uczenia się modeli predykcyjnych z zmiennych strumieni danych z elementami wyjaśnialności działania tych modeli (tzw. paradygmat wyjaśniania działania modeli uczenia maszynowego tzw. XAI) oraz zmian zachodzących w samych danych.

Grant: NCN OPUS grant nr 2023/51/B/ST6/00545
Leader(s): Jerzy Stefanowski, Group: Systemy uczące się i eksploracja danych
Expected duration: 2023-2027

Algorytmy i miary dla bezstronnych i wyjaśnialnych systemów decyzyjnych

Projekt koncentruje się na tworzeniu algorytmów dla wyjaśnialnych systemach decyzyjnych oraz mierzeniu bezstronności. W ramach badane są teoretyczne właściwości istniejących miar bezstronności i projektowane nowe miary biorące pod uwagę niezbalansowanie danych. W ramach projektu opracowywane są również metody wizualizacji wielokryterialnych systemów decyzyjnych, które pozwolą łatwiej wyjaśniać podejmowane przez nie decyzje. Wyniki naszych badań wykorzystamy w praktycznych zastosowaniach i udostępnimy szerszej publiczności w postaci wyjaśnialnych wielokryterialnych kokpitów decyzyjnych oraz bibliotek dla programistów.

Grant: NCN SONATA
Leader(s): Dariusz Brzeziński, Group: Systemy uczące się i eksploracja danych
Expected duration: 2023-2026

Projektowanie i weryfikacja przedkrzemowa

Projekt dotyczy projektowania logiki cyfrowej z wykorzystaniem platform FPGA, projektowania sprzętu dla systemów wbudowanych w architekturze Intel FPGA oraz syntezy RTL do GDS. Ponadto tematyka projektu zahacza o implementację RTL, nowoczesne architektury heterogeniczne, obwody synchroniczne, symulację i debugowanie, statyczną analizę taktowania, ograniczenia projektowe, podsystemy pamięci, System of Chips (SoCs) i System in Package (Sip).

Grant: Intel Labs
Leader(s): Szymon Szczęsny, Group: Neurocybernetyka i inżynieria mikrosystemów
Expected duration: 2023-2026
Website: https://nme.put.poznan.pl/vlsi/

Poprzednie projekty

TAILOR - projekt badawczo-naukowy sieci naukowej ośrodków AI

Europejski projekt sieci ośrodków badawczych sztucznej inteligencji rozwijających algorytmiczne podstawy sztucznej inteligencji godnej zaufania.

Grant: Unia Europejska Horizon 2020(GA no. 952215)
Leader(s): Krzysztof Krawiec, Group: Systemy neuro-symboliczne
Duration: 2021-2024
Website: https://tailor-network.eu

Opracowanie metod pobierania wiedzy z Powiązanych Danych

Celem niniejszego projektu będzie opracowanie metody rozwiązania zadania pobierania wiedzy z Powiązanych Danych, która umozliwi efektywniejsze ich wykorzystywanie zarówno przez człowieka poszukującego odpowiedzi na swoje pytanie jak i przez automatyczne mechanizmy uczenia maszynowego.

Grant: NCN PRELUDIUM 6 (2013/11/N/ST6/03065)
Leader(s): Jędrzej Potoniec, Group: Systemy neuro-symboliczne
Duration: 2014-2017

Automatyczne odkrywanie i wykorzystywanie wiedzy dziedzinowej do priorytetyzacji przeszukiwania w problemie automatycznej syntezy programów

Projekt ma na celu rozwój dziedziny syntezy programów poprzez opracowanie algorytmów, które automatycznie odkrywają i wykorzystują wiedzę dziedzinową w celu zwiększenia efektywności przeszukiwania przestrzeni programów. Synteza programów, czyli proces generowania programu spełniającego okreloną specyfikację, jest z natury trudnym zadaniem ze względu na jego NP-trudność. Chociaż algorytmy heurystyczne mogą dostarczać praktycznych rozwiązań, zazwyczaj są one niezależne od konkretnego problemu i nie potrafią wykorzystać jego specyficznej charakterystyki. Projekt koncentruje się na wykorzystaniu technik uczenia maszynowego w celu identyfikacji przydatnych własności problemów syntezy programów, które następnie mogą być wykorzystane do priorytetyzacji przeszukiwania i zmniejszenia czasu potrzebnego na rozwiązywanie tych problemów.

Grant: NCN PRELUDIUM 15 (2018/29/N/ST6/01646)
Leader(s): Iwo Błądek, Group: Systemy neuro-symboliczne
Duration: 2018-2023

Oprogramowanie Inteligentnej eksploracji procesów w czasie rzeczywistym

Proces biznesowy, rozumiany jako zbiór aktywnosci połączonych ograniczeniami kolejnościowymi i prowadzący do osiągnięcia celu biznesowego, jest nieodłącznym elementem każdej działalności gospodarczej. Efektywne zarządzanie procesami biznesowymi w średnich i dużych przedsiębiorstwach jest niemożliwe bez wsparcia ze strony dedykowanego oprogramowania. Celem projektu jest opracowanie w pełni funkcjonalnego produktu - oprogramowania ProcessM służącego modelowaniu, monitorowaniu, analizie i optymalizacji procesów biznesowych. ProcessM nie jest oprogramowaniem typu Enterprise Resource Planning (ERP), ale narzędziem sztucznej inteligencji wspierającym zarządzanie procesami biznesowymi. ProcessM bezproblemowo integruje się z narzędziami ERP oraz dowolnymi innymi źródłami danych dzięki zastosowaniu metod uczenia maszynowego wspierających ekstrakcję, transformację i ładowanie (ETL) danych. ProcessM modeluje proces biznesowy w trybie online na podstawie napływających w czasie rzeczywistym zdarzeń z systemu ERP, weryfikuje zgodność wykonania procesu z modelem, klasyfikuje wykryte odstępstwa od modelu na błędy i dryft pojęcia procesu, raportuje odstępstwa razem z analizą głównych przyczyn i proponuje zmiany w procesie mające na celu optymalizację jego wykonania. ProcessM jest usługą internetową pracującą w trybie ciągłym i realizującą powyższe zadania bez nadzoru użytkownika. Wykryte nieprawidłowości w działaniu procesu są natychmiast raportowane użytkownikowi. Usługa internetowa ProcessM jest kompatybilna z systemami Windows, Linux i MacOS, a klient usługi ProcessM działa w przeglądarce internetowej na dowolnym systemie operacyjnym.

Grant: NCBR LIDER LIDER/14/0086/L-10/18/NCBR/2019
Leader(s): Tomasz Pawlak, Group: Systemy neuro-symboliczne
Duration: 2020-2024
Website: https://processm.cs.put.poznan.pl

Automatyczna synteza modeli programowania matematycznego dla procesów biznesowych

Cel prowadzonych badań Głównym celem projektu jest redukcja kosztów budowy modeli Programowania Matematycznego (PM) dla procesów biznesowych przez automatyzacje˛ tego zadania. Dotychczasowa˛ praktyka˛ przemysłowa˛ jest re˛czne tworzenie modeli PMwykorzystuja˛c wiedze˛ ekspercka˛o procesie. Jednakz˙e jest to czasochłonne zadanie, które wymaga głębokiej wiedzy na temat procesu oraz technik modelowania. Wprojekcie zaproponowano algorytmy automatyzujące budowę modeli PM wykorzystuja˛c do tego celu przykłady stanów procesu uzyskane poprzez monitorowanie jego wykonania. Problem syntezy modelu PM zostanie zdekomponowany na podproblemy syntezy ograniczeń i syntezy funkcji celu, rozwiązywane niezależnie przy użyciu metod z pogranicza Uczenia Maszynowego, Inteligencji Obliczeniowej i Badań Operacyjnych. W problemie syntezy ograniczeń zastosowanie znajdą algorytmy bazujące na klasyfikatorach jednoklasowych (np.: Support Vector Data Description, POSC4.5), Programowanie Genetyczne, heurystyki przeszukiwania lokalnego (np.: Symulowane Wy˙zarzanie, Przeszukiwanie Tabu), oraz Programowanie Liniowe. W zakresie syntezy funkcji celu zastosowanie znajda˛ regresja liniowa metoda˛ najmniejszych kwadratów, regresja nieliniowa algorytmem Gaussa-Newtona, oraz regresja symboliczna przy u˙zyciu Programowania Genetycznego. Opracowane algorytmy i modele PM przez nie tworzone zostaną przeanalizowane teoretycznie i porównane eksperymentalnie. Dla obiektywnej oceny algorytmów, zastosowanie znajdą różnorodne problemy testowe o kontrolowanej złożoności, a także instancje problemów modelowania rzeczywistych procesów. Zastosowana metoda badawcza Projekt podzielono na trzy zadania dotyczące syntezy ograniczeń, syntezy funkcji celu, oraz oceny opracowanych algorytmów w modelowaniu rzeczywistych procesów. W pierwszych dwóch zadaniach zastosowanie znajda˛ syntetyczne problemy testowe sformułowane w postaci modeli PMi próbkowane w celu uzyskania przykładów uczących. Przykłady te posłuz˙a˛ jako dane wejs´ciowe dla opracowanych algorytmów syntezy modeli PM. Opracowane algorytmy zostana˛ ocenione na m.in. za złożoność obliczeniowa, skalowalność z rozmiarem problemu i średniokwadratowy błąd uczenia. Tworzone przez nie modele PMzostaną ocenione za syntaktyczną i semantyczną zgodność z testowymi modelami PM na np.: ka˛cie między odpowiadaja˛cymi sobie ograniczeniom, trafności klasyfikacji na zbiorze testowym i współczynniku Jaccarda obszarów dopuszczalnych. Wtrzecim zadaniu zostana˛ zweryfikowane moz˙liwos´ci zastosowania opracowanych algorytmów w rzeczywistych scenariuszach użycia. W tym celu wykorzystane zostana˛ zbiory danych uzyskane z monitorowania przebiegu różnych procesów, m.in. zbiory z repozytorium UCI np.: proces produkcji energii elektrycznej i proces produkcji betonu. Zsyntetyzowane modele PM zostana˛ ocenione pod ka˛tem zgodności z dostępną wiedzą dziedzinowa˛ na temat procesu, a takz˙e w zastosowaniu do symulacji procesu w różnych warunkach pracy, tj. weryfikacji jak ustalenie wybranych zmiennych na specyficzne wartości wpłynie na obszar rozwiązań dopuszczalnych i wartość funkcji celu. Modele PM zostana˛ takz˙e ocenione w optymalizacji procesu przez weryfikację stosowalności ich optymalnego rozwia˛zania w rzeczywistos´ci oraz ocene˛ ilościowej poprawy wartości funkcji celu, względem obecnie wykorzystywanych nastaw procesu. Znaczenie ilościowych różnic pomiędzy właściwościami algorytmów i modeli PM zostanie zweryfikowane w analizie statystycznej, m.in. ANOVA i te´scie Friedman’a. Wpływ spodziewanych rezultatów na rozwój nauki, cywilizacji, społecze ´nstwa Obecna˛ praktyka˛ jest tworzenie modeli PM re˛cznie przez ekspertów dziedzinowych s´wiadcza˛cych specjalistyczne usługi. Ze wzgl˛edu na wysokie koszty takich usług, ograniczona liczba organizacji decyduje si˛e na nie, mimo z˙e moga˛ one przynies´c´ wymierne oszcze˛dnos´ci, zysk i przewage˛ nad konkurencja˛. Automatyzacja budowy modeli PM powinna przyczyni´c si˛e do zmniejszenia zakresu wiedzy eksperckiej wymaganej do budowy poprawnych modeli PM rzeczywistych procesów, redukuja˛c tym samym wysiłek i koszty zwia˛zane z ludzka˛ praca˛. Zgodnos´c´ modelu PM z rzeczywistos´cia˛ jest kluczowa w optymalizacji, gdzie rozwia˛zania optymalne zazwyczaj lez˙a˛ na granicy obszaru dopuszczalnego. Oczekiwanym jest wie˛c, z˙e budowane modele PM be˛da˛ odzwierciedlac´ rzeczywistos´c´ w stopniu umoz˙liwiaja˛cym ich zastosowanie w optymalizacji i symulacji, a takz˙e do wyjas´nienia zachowania rzeczywistych procesów. Osia˛gnie˛cie tego celu powinno poprawic´ dost˛epno´s´c usług modelowania i optymalizacji dla szerszej grupy odbiorców ni˙z dotychczasowe metody. Poprawa efektywno´sci procesów powinna przeło˙zy´c si˛e na wi˛eksze zyski i konkurencyjno´s´c organizacji z nich korzystaja˛cych, a w efekcie na poprawe˛ statusu materialnego społeczen´stwa.

Grant: NCN SONATA UMO-2016/23/D/ST6/03735
Leader(s): Tomasz Pawlak, Group: Systemy neuro-symboliczne
Duration: 2017-2022

Wsparcie zarządzania badaniami naukowymi i komercjalizacja wyników prac B+R w jed-nostkach naukowych i przedsiębiorstwach

Grant: Program Operacyjny Inteligentny Rozwój 2014−2020 (Działanie 4.4), Inkubator Innowacyjności 4.0, MNiSW/2020/343/DIR
Leader(s): Tomasz Pawlak (kierownik zadania), Group: Systemy neuro-symboliczne
Duration: 2020-2022

Algorytmy trasowania i obliczania macierzy odległości w sieci drogowej z uwzględnieniem ograniczeń w ruchu ciężkim.

Grant: InterLAN Andrzej Kułakowski i Spółka, Sp.J
Leader(s): Tomasz Pawlak, Group: Systemy neuro-symboliczne
Duration: 2020-2021

RSQ AI – innowacyjny system wsparcia diagnostyki medycznej w oparciu o sztuczną inteligencję

Celem projektu jest opracowanie innowacyjnego systemu wsparcia diagnostyki medycznej w oparciu o sztuczną inteligencję. Zakres prac badawczo-rozwojowych w ramach projektu dotyczy opracowania i rozwoju rozwiązań informatycznych wspomagających diagnozowanie chorób (urazów układu kostnego oraz guzów złośliwych płuc) opartych o sztuczną inteligencję, rozbudowane systemy wnioskowania (uczenie maszynowe) oraz systemy oparte o symulacje komputerowe na różnym poziomie złożoności.

Grant: POIR.01.01.01-00-2068/20
Leader(s): Krzysztof Krawiec (Head Data Scientist), Group: Systemy neuro-symboliczne
Duration: 2021-2023

Platforma programistyczna dla modelowania wyjaśniającego dużych zbiorów danych

Celem projektu jest zaprojektowanie i wdrożenie zestawu narzędzi do modelowania wyjaśniającego dla Apache Spark oraz udostępnienie go podmiotom z biznesu i środowiska akademickiego. Modelowanie wyjaśniające wykorzystuje techniki uczenia maszynowego do automatycznego pozyskiwania przejrzystych modeli z danych generowanych przez dowolne procesy, w tym operacje biznesowe, rozwój / prototypowanie produktów, eksperymenty naukowe itp. w celu prognozowania, klasyfikacji, grupowania i innych działań związanych z analizą danych. Przejrzystość osiąga się poprzez reprezentowanie modeli jako wyrażeń symbolicznych (algebraicznych lub logicznych) i reguł w postaci „jeśli ... to ...”. Takie modele, oprócz pełnienia funkcji typowych predyktorów (klasyfikatorów, regresorów itp.), oferują wgląd w naturę danego procesu i ułatwiają różne formy wyjaśnień: wyjaśnienie dokonywanych prognoz, ich przyczyn, interakcji między parametrami charakteryzującymi proces itp. Cechy te, choć niezbędne w wielu obszarach zastosowań, są w dużej mierze nieobecne w głównych metodach uczenia maszynowego, takich jak sieci neuronowe, lasy losowe czy maszyny wektorów nośnych.

Grant: DZP/TANGO2/396/2016
Leader(s): Krzysztof Krawiec, Group: Systemy neuro-symboliczne
Duration: 2017-2019

Deep neural networks for anomaly detection in volumetric computed tomography imaging

Grant: (współpraca z przemysłem, Roche)
Leader(s): Krzysztof Krawiec, Group: Systemy neuro-symboliczne
Duration: 2017

Development of universal methods for solving advanced vehicle routing problems problems using machine learning

Grant: (współpraca z przemysłem, eMapa)
Leader(s): Krzysztof Krawiec, Group: Systemy neuro-symboliczne
Duration: 2019

Analysis of the architecture and support in the implementation of new signal analysis algorithms

Grant: (współpraca z przemysłem, StethoMe)
Leader(s): Krzysztof Krawiec, Group: Systemy neuro-symboliczne
Duration: 2018

Modele uczenie maszynowego dla krystalografii rentgenowskiej

Celem projektu był rozwój narzędzi AI dla rentgenografii strukturalnej (krystalografii). W ramach projektu stworzono system CheckMyBlob (https://checkmyblob.bioreproducibility.org/) do automatycznego wykrywania, predykcji oraz walidacji ligandów w strukturach krystalicznych makromolekuł biologicznych. System wykrywa miejsca potencjalnych ligandów i za pomocą uczenia maszynowego sugeruje jakie cząsteczki mogłyby zostać wymodelowane w danym fragmencie mapy gęstości elektronowej. System potrafi również walidować już wymodelowane struktury, w tym struktury zdeponowane do bazy PDB. W ramach projektu rozwinięta została również miara PQ1 pozwalająca w łatwy sposób oceniać jakość (dopasowania do danych krystalograficznych) struktur białek i kwasów nukleinowych oraz sieć neuronowa rozpoznająca artefakty w zdjęciach dyfrakcyjnych rentgenografii strukturalnej.

Grant: NAWA program im. Bekkera
Leader(s): Dariusz Brzeziński, Group: Systemy uczące się i eksploracja danych
Duration: 2019-2020

Eksploracja strumieni danych ze zmienną definicją klas

Projekt dotyczył algorytmów klasyfikacji dla zmiennych strumieni danych. W ramach projektu opracowano algorytm AUE (Accuracy Updated Ensemble) do klasyfikacji strumieni danych przetwarzanych blokowo. Opracowany algorytm pozwala zachować wysoką trafność klasyfikacji przy różnych typach zmian zachodzących w strumieniach, takich jak nagłe, stopniowe, przyrostowe czy nawracające zmiany definicji klas. Na podstawie eksperymentów porównujących AUE z istniejącymi klasyfikatorami strumieniowymi pokazano, że zaproponowany algorytm uzyskuje średnio najwyższą trafność klasyfikacji przy zachowaniu niskich wymagań pamięciowych oraz krótkiego czasu przetwarzania. W ramach projektu wykazano również , że istnieje możliwość przenoszenia elementów rozwiązań istniejących w klasyfikatorach blokowych do metod działających przyrostowo oraz zaproponowano i oceniono strategie dostosowujące algorytmy blokowe do środowisk przyrostowych. W oparciu o tę analizę zaproponowano algorytm OAUE (Online Accuracy Updated Ensemble), który przyrostowo uczy i ocenia klasyfikatory bazowe zgodnie z najlepszymi strategiami reakcji na nagłe i stopniowe typy zmian. Stworzone algorytmy stały się częścią systemu do analizy strumieni danych MOA (https://moa.cms.waikato.ac.nz/).

Grant: NCN PRELUDIUM
Leader(s): Dariusz Brzeziński, Group: Systemy uczące się i eksploracja danych
Duration: 2012-2014

Akademia Innowacyjnych Zastosowań Technologii Cyfrowych AI-Tech, projekt finansowany przez Ministerstwo Cyfryzacji,

Grant: Ministerstwo Cyfryzacji
Leader(s): Cały zespól wykonawców, Group: Systemy uczące się i eksploracja danych
Duration: 2020-2023

eVOLUTUS: symulator wieloskalowych procesów ewolucyjnych testowanych na otwornicach

Zaproponowano nową metodę badawczą, przeznaczoną do wykorzystania w naukach o Ziemi, w szczególności w dziedzinach paleontologii, paleoekologii, paleoceanografii oraz morfologii teoretycznej. Głównym celem było skonstruowanie nowego algorytmicznego środowiska do testowania i symulacji zasad ewolucji oraz ich złożonych konsekwencji dla organizmów w określonych dynamicznych warunkach siedliskowych, zmiennych w czasie geologicznym i przestrzeni. Organizmem modelowym były otwornice – jednokomórkowe organizmy eukariotyczne, które bardzo licznie zasiedlają morskie strefy pelagiczne i bentoniczne oraz prezentują wyjątkowo kompletny zapis kopalny, pochodzący z całego fanerozoiku.

Grant: NCN OPUS 2013/09/B/ST10/01734
Group: Złożone systemy adaptacyjne i optymalizacja
Duration: 2014-2017

Rozwój metod wytwarzania i modelowania zintegrowanych siłowników miękkich wykonanych z wykorzystaniem DEAP oraz MRE

Celem projektu jest opracowanie metod wytwarzania zintegrowanego aktuatora i diagnostyki miękkich aktuatorów zaimplementowanych z wykorzystaniem dielektrycznych polimerów elektroaktywowanych (DEAP) i elastomerów magnetoreologicznych (MRE). Materiały DEAP i MRE należą do grupy materiałów inteligentnych. Siłowniki DEAP charakteryzują się wysoką wydajnością energetyczną, elastycznością i skalowalnością. Stosowane są w zaworach i pompach. Technologia polimerów dielektryczno-elektroaktywnych jest w stanie spełnić specyficzne wymagania lepiej niż powszechnie stosowane technologie, np. elektromagnesy, ale ma ograniczenia wytrzymałościowe i skokowe.

Grant: SIGR
Leader(s): Szymon Szczęsny, Group: Neurocybernetyka i inżynieria mikrosystemów
Duration: 2023-2024
Website: https://nme.put.poznan.pl/softrobotics/

Zastosowanie technik uczenia maszynowego w wykrywaniu i kontroli jaskry

Projekt, realizowany we współpracy z PCSS i Kliniką Chorób Oczu Wasilewicz, poświęcony jest diagnostyce jaskry, która może być spowodowana podwyższonym ciśnieniem wewnątrzgałkowym (IOP). W odróżnieniu od metod diagnostycznych opartych na optycznej koherentnej tomografii (OCT), projekt zakłada analizę danych z sensora soczewek kontaktowych Sensimed Triggerfish uzupełnionych o dodatkowe pomiary kliniczne. Celem projektu jest opracowanie modeli ML do diagnozowania choroby oraz wdrożenie narzędzi wspomagających pracę okulistów.

Grant: Ministerstwo Nauki i Szkolnictwa Wyższego
Leader(s): Szymon Szczęsny, Group: Neurocybernetyka i inżynieria mikrosystemów
Duration: 2021-2024
Website: https://nme.put.poznan.pl/glaucoma/

Przetwarzanie brzegowe - program nauczania

Projekt polegał na wdrożeniu technologii przetwarzania brzegowego w Politechnice Poznańskiej oraz przygotowaniu materiałów szkoleniowych dla studentów drugiego stopnia studiów realizowanych na Wydziale Informatyki i Telekomunikacji.

Grant: (współpraca z przemysłem, Intel)
Leader(s): Szymon Szczęsny, Group: Neurocybernetyka i inżynieria mikrosystemów
Duration: 2021-2023
Website: https://cce.put.poznan.pl/index.php?show=EDGE_AI

Technologia systemów wbudowanych - kurs dla studentów

Projekt polegał na wdrożeniu technologii systemów wbudowanych firmy Intel w Politechnice Poznańskiej oraz przygotowaniu materiałów szkoleniowych dla studentów drugiego stopnia studiów realizowanych na Wydziale Informatyki i Telekomunikacji.

Grant: (współpraca z przemysłem, Intel)
Leader(s): Szymon Szczęsny, Group: Neurocybernetyka i inżynieria mikrosystemów
Duration: 2016-2017
Website: https://cce.put.poznan.pl/index.php?show=content&id=20

Prekursory warstwy fizycznej Kwantowego Internetu Rzeczy (Q-IoT)

Celem projektu jest opracowanie technologicznych podstaw dla przyszłego Kwantowego Internetu Rzeczy (Q-IoT), który łączy klasyczne technologie IoT z rozwiązaniami kwantowymi. Projekt w obszarze inżynierii materiałowej koncentruje się na zagadnienach związanych z sensorami kwantowymi oraz ich integracją z klasycznymi układami mikroelektronicznymi i systemami mikroinformatycznymi. W ramach zadań realizowanych na WIiT podejmowane są zagadnienia m.in. dotyczące bezpieczeństwa sprzętowe i ochrona danych w Q-IoT, w tym szczególnie: badanie możliwości wykorzystania kwantowych generatorów liczb losowych (QRNG) oraz fizycznie nieklonowalnych funkcji (PUF) w systemach IoT; wykorzystanie kwantowych sensorów do detekcji sprzętowych Trojanów (HWT) w układach elektronicznych, co ma kluczowe znaczenie dla bezpieczeństwa sprzętowego w IoT. Ponadto w ramach badań podejmowane są próby rozwoju warstwy klasycznej w Q-IoT rozumianej jako projektowanie systemów z wykorzystaniem układów FPGA wspierających sterowanie i przetwarzanie sygnałów z sensorów kwantowych. Zakłada się opracowanie własnego niezależnego kwantowego generatora liczb losowych w koncepcji Open Source Hardware. Z WIiT zaangażowanymi osobami są dr inż. Michał Melosik oraz dr inż. Mariusz Naumowicz.

Grant: SIGR - Interdyscyplinarny Grant Rektorski realizowany wspólnie z Zakładem Inżynierii i Metrologii Kwantowej WIMiFT
Leader(s): Przemysław Głowacki (WIMiFT - kierownik grantu), Michał Melosik (nadzorujący zadania po stronie WIiT),