W przemyśle dane są wszędzie: z czujników, z kamer, z pomiarów ultradźwiękowych, z raportów serwisowych. Problem zwykle nie polega na tym, że „nie mamy danych”. Problem polega na tym, że trudno szybko odpowiedzieć na trzy proste pytania:
Co się dzieje? Dlaczego to ważne? Co robimy dalej?
Dzisiaj coraz częściej łączy się dwa światy:
- modele wykrywające odchylenia w danych (czyli „coś jest nie tak”),
- modele językowe LLM, które potrafią te odchylenia opisać ludzkim językiem i osadzić w kontekście dokumentacji.
Efekt: system nie tylko wykrywa anomalię, ale też pomaga ją zrozumieć i przygotować sensowną decyzję dla utrzymania ruchu.
1. Najpierw wykryj: kiedy dane mówią „uwaga, coś się zmieniło”
W wielu zastosowaniach monitorujemy zmiany w czasie: grubość ścianki, sygnał ultradźwiękowy, drgania, temperaturę czy parametry procesu. W praktyce to po prostu „linia” lub „wiele linii” w czasie.
Modele typu LSTM (rodzina sieci do danych sekwencyjnych) działają tu jak bardzo sprytna prognoza: uczą się, jak zwykle zachowuje się sygnał, a potem sprawdzają, czy to, co przyszło teraz, pasuje do „normalnego” wzorca. Gdy rozjazd jest większy niż zwykle, system oznacza to jako anomalię.
W robotyce inspekcyjnej taka anomalia może oznaczać na przykład, że sygnał ultradźwiękowy zaczyna wyglądać inaczej niż w poprzednich pomiarach albo tempo ubytku materiału jest nietypowe.
Ważne: to jeszcze nie jest diagnoza. To jest sygnał: „sprawdźmy to”.
2. I tu zaczyna się problem: wynik modelu bywa nieczytelny
Klasyczny system analityczny potrafi powiedzieć:
„W tym miejscu błąd predykcji przekroczył próg” albo „wykryto anomalię”.
Tylko że dla większości osób po stronie utrzymania ruchu to za mało. W codziennej pracy potrzebne są jasne odpowiedzi:
- Czy to wygląda groźnie, czy to tylko szum?
- Jakie mogą być przyczyny?
- Jak to się ma do historii instalacji?
- Co rekomendujecie: powtórzyć pomiar, zwiększyć częstotliwość inspekcji, a może natychmiast zatrzymać urządzenie?
I właśnie w tym miejscu pojawia się rola LLM.
3. LLM: tłumacz między danymi a decyzją
LLM (Large Language Model) to model, który potrafi pracować na tekście: czyta, streszcza, wyciąga wnioski i tworzy sensowne odpowiedzi. W przemyśle nie chodzi o „ładne zdania”, tylko o to, żeby ktoś dostał czytelne wyjaśnienie i mógł działać.
Przykład w praktyce:
System wykrywa, że w pewnym obszarze sygnał odbiega od normy. LLM może wygenerować krótkie podsumowanie: co wykryto, jakie są typowe przyczyny i jakie działania są sensowne jako następny krok.
To brzmi świetnie, ale jest haczyk.
4. Dlaczego LLM bez zabezpieczeń to ryzyko
Modele językowe potrafią „dopowiadać”. Czasem robią to dobrze, a czasem tworzą pewnie brzmiące odpowiedzi, które nie mają pokrycia w danych. W przemyśle to jest nie do przyjęcia.
Dlatego sensowne wdrożenia opierają się o podejście, w którym LLM nie „wymyśla”, tylko pracuje na konkretnych materiałach: raportach, procedurach, instrukcjach, normach, historii napraw.
Najczęściej robi się to przez RAG.
5. RAG: LLM, który odpowiada na podstawie Twoich dokumentów
RAG (Retrieval-Augmented Generation) to proste podejście: zanim LLM odpowie, system wyszukuje w bazie wiedzy właściwe fragmenty dokumentów i dopiero na tej podstawie generuje odpowiedź.
W praktyce wygląda to tak:
Dokumenty (np. raporty, instrukcje, normy) są przygotowane i „pocięte” na fragmenty, potem zamienione na reprezentację, która pozwala wyszukiwać semantycznie (czyli po znaczeniu), a nie po słowach kluczowych. Gdy użytkownik zada pytanie albo gdy system chce wyjaśnić anomalię, wyszukiwane są najbardziej pasujące fragmenty. LLM dostaje je jako kontekst i tworzy odpowiedź.
To podejście daje trzy duże korzyści:
- odpowiedzi są „przywiązane” do dokumentów i historii,
- ryzyko halucynacji spada,
- łatwiej uzasadnić wniosek w raporcie.
6. Co to daje w inspekcji i utrzymaniu ruchu
Połączenie detekcji anomalii i LLM (w trybie RAG) zmienia sposób pracy zespołów technicznych.
Zamiast samej flagi „anomalia”, można dostać krótką notatkę operacyjną, na przykład:
Wykryto zmianę charakterystyki sygnału w strefie X w porównaniu do poprzednich pomiarów. W podobnych przypadkach w historii instalacji przyczyną były: pogorszenie sprzężenia, zmiana warunków powierzchni, wczesne ogniska korozji. Rekomendowane działania: powtórzyć pomiar z kontrolą sprzężenia, wykonać pomiar porównawczy w sąsiedniej strefie, rozważyć zwiększenie częstotliwości inspekcji.
To wciąż nie jest „wyrok”. To jest pomoc dla inżyniera, żeby szybciej przejść od danych do sensownego planu działania.
7. Jak Comcore patrzy na ten kierunek
W robotyce inspekcyjnej kluczowe jest to, żeby system był użyteczny nie tylko dla osoby, która analizuje sygnały, ale też dla całego procesu: od pomiaru, przez raport, po decyzję. Dlatego podejście „detekcja + wyjaśnienie + raportowanie” jest tak interesujące.
W praktyce oznacza to budowanie rozwiązań, w których:
- część analizy dzieje się blisko danych (np. na urządzeniu lub w systemie brzegowym),
- warstwa językowa przygotowuje zrozumiałe podsumowanie,
- odpowiedzi są oparte o realną dokumentację i historię instalacji.
Podsumowanie
AI w przemyśle nie musi być „magiczna”. Najbardziej wartościowe podejście to takie, które:
wykrywa zmianę w danych, a potem pomaga ją sensownie wyjaśnić.
Modele do detekcji anomalii świetnie radzą sobie z sygnałem. LLM świetnie radzi sobie z językiem. Dopiero połączenie tych dwóch światów, najlepiej z RAG, daje praktyczną wartość dla utrzymania ruchu: szybciej zrozumieć sytuację, lepiej udokumentować wniosek, sprawniej podjąć decyzję.



