Sztuczna inteligencja znów wchodzi na salony. Sprosta oczekiwaniom?
Katgoria: IT Solutions / Utworzono: 27 listopad 2017
Sztuczna inteligencja znów wchodzi na salony. Sprosta oczekiwaniom?
Lata 80. to nie tylko muzyka disco, trwała ondulacja, niezliczone prywatki i zakupy w Pewexie. Ten barwny okres we współczesnej historii to również wielki boom na sztuczną inteligencję, podsycany takimi hitami jak „Gwiezdne Wojny” czy „Łowca Androidów”. Niestety, ówczesna technologia nie sprostała wyzwaniu zawodząc rozbuchane oczekiwania entuzjastów.
Dziś sprawy mają się zupełnie inaczej. Programiści dysponują sprzętem o nieporównywalnie większej mocy obliczeniowej, a szybki internet i dostęp do gigantycznych zbiorów danych dają twórcom inteligentnych algorytmów masę nowych możliwości. Sztuczna inteligencja wróciła na salony i znów rozpala wyobraźnię, jednak nim zobaczymy ją w triumfalnym pochodzie, programiści muszą uporać się z kilkoma ważnymi problemami.
Geneza inteligentnych maszyn
Gdy w drugiej połowie minionego stulecia rozpoczęto pracę nad rozwojem myślących maszyn, wyłoniły się dwie szkoły. Pierwsza postawiła na programowanie w sposób logiczny, tak by wewnętrzne procesy zachodzące w sztucznej inteligencji były transparentne i by w każdej chwili można było zajrzeć do jej kodu i dowiedzieć się czemu podjęła ona taką, a nie inną decyzję. Odmienne podejście mieli przedstawiciele drugiej szkoły, którzy wzorując się na żywych organizmach uznali, że lepiej będzie, jeśli sztuczna inteligencja uczyć się będzie sama. Obserwacja, zdobywanie doświadczeń i wyciąganie wniosków przez SI miało znacząco przyspieszyć jej rozwój i tak się stało. Uczenie maszynowe okazało się strzałem w dziesiątkę, a jego bardziej zaawansowana odsłona — sieci neuronowe — przyniosła prawdziwy przełom w rozwoju sztucznej inteligencji. Już w r. 1990 potrafiła ona odczytać pismo ręczne i przeformatować je na czcionkę komputerową. Dziś z głębokiego uczenia maszynowego firmy korzystają coraz częściej; banki zaprzęgają je do weryfikacji zdolności kredytowych swoich klientów, a zarządy największych korporacji dzięki zaawansowanym narzędziom do analityki danych podejmują lepsze decyzje biznesowe. Z inteligentnych algorytmów korzysta się również w reklamie internetowej, a platformy DMP (data management platform), analizujące gigantyczne wolumeny danych o preferencjach i zrachowaniach internautów, umożliwiają marketerom docieranie do grupy docelowej z wyjątkową precyzją. Bez uczenia maszynowego, okiełznanie rozległych zasobów Big Data byłoby niemożliwe do zrealizowania.
Mimo, że inteligentne algorytmy zyskują na popularności, to stopień nasycenia nimi rynku różni się w zależności od branży. Nikogo nie powinno to dziwić, bo w przypadku innych technologia sytuacja wygląda podobnie. Z uczeniem maszynowym wiąże się jednak pewien sekret, o którym nie wszyscy chcą głośno mówić, a to właśnie za jego sprawą nasze zaufanie do tej technologii pozostaje niepełne. Procesy zachodzące w sieciach neuronowych owiane są tajemnicą i nie wiadomo, co dokładnie stoi za podejmowanymi za ich pośrednictwem decyzjami. Głębokie uczenie maszynowe pozwala komputerom uczyć się na podstawie przedstawionych im przypadków i autonomicznie rozwiązywać problemy, jednak gdy w grę wchodzą złożone sieci neuronowe, a komputer bierze pod uwagę wiele wątków, to dostarczane przez niego wyniki, mimo że słuszne to nie zawierają łatwego w wytłumaczeniu uzasadnienia. Paradoksalnie, to właśnie branże, które nie mogą pozwolić sobie na beztroskie zaufanie w stosunku do maszyn i potrzebują wyjaśnień dla podejmowanych przez nie decyzji, najwięcej inwestują w rozwój SI. Według firmy analitycznej CB Insights, od roku 2012 na startupy pracujące nad sztuczną inteligencją przeznaczono łącznie 14,9 miliarda dolarów, a najwięcej inwestycji dotyczyło sektora Health and Wellness.
Człowiek żąda wyjaśnień
By wykorzystać wielkie, nieustrukturyzowane zbiory danych, po uczenie maszynowe sięgnęła Regina Barzilay, profesor MIT, u której w wieku 46 lat zdiagnozowano raka piersi. Zdumiona tym, że szpitale nie wykorzystują sztucznej inteligencji do analityki historii chorobowej pacjentów, postanowiła to zmienić. Jej nowa misja ma jeden cel: zrewolucjonizować medycynę. Profesor MIT doskonale zdawała sobie sprawę z tego, że do realizacji jej ambitnego projektu nie wystarczą gromadzone w szpitalach podstawowe akta pacjentów. By w pełni wykorzystać potencjał sztucznej inteligencji, postanowiła „nakarmić ją” m.in. danymi patologicznymi i obrazowymi. Wiedząc, jak działa uczenie maszynowe, Regina Barzilay wzbogaciła swój system o funkcję, która miała ułatwić zrozumienie generowanych wyników. Dzięki niej, komputer wyodrębnia i podkreśla fragmenty tekstu reprezentatywne dla odkrytego wzorca. Umożliwiło to lekarzom z Massachusetts General Hospital głębszą analizę wyróżnionych schematów. Takie rozwiązanie to półśrodek, który w przypadku analizy wyników badań pacjentów okazał się pomocny, jednak nie rozwiązuje on problemu z owianym tajemnicą wnioskowaniem głębokich sieci neuronowych.
Wglądu w procesy decyzyjne zachodzące w uczeniu maszynowym domaga się również Unia Europejska. Brukselscy urzędnicy najwyraźniej nie ufają sztucznej inteligencji wystarczająco, by wierzyć jej na słowo i odczuwają niepokój w związku z jej szeroką implementacją w biznesie. Już w połowie 2018 roku ma wejść w życie prawo zobowiązujące firmy posługujące się sztuczną inteligencją, by używane przez nie systemy potrafiły przedstawić wyjaśnienia dla swoich postanowień.
Czemu przywiązuje się do tego aż taką wagę? Łatwo zrozumieć to na przykładzie motoryzacji. Błąd komputera może skończyć się śmiertelnym wypadkiem. Odpowiedzialność spoczywająca na maszynie jest nieporównywalnie większa, a każda podjęta przez nią decyzja, w razie potrzeby powinna być automatycznie wyjaśniona. Amerykański koncern technologiczny Nvidia testuje już samochód, który w przeciwieństwie do innych autonomicznych pojazdów, nauczył się zasad poruszania w ruchu drogowym obserwując poczynania ludzi. Na razie nie spowodował on żadnego wypadku, ale gdyby pewnego dnia potrącił człowieka albo wjechał w płot, programiści mieliby nie lada zagwozdkę i do czasu jej wyjaśnienie najlepiej byłoby wycofać go z ruchu. Jeśli jednak pojazd przedzie wszystkie testy, to urzędnicy będą mieli niezły orzech do zgryzienia: czy takie samochody są wystarczająco bezpieczne, by jeździć po naszych ulicach?
Przed podobnym dylematem stoi dziś amerykańska armia, która przyszłość widzi w automatyzacji jednostek bojowych. Projekty opracowywane przez wojsko i agencje rządowe wykorzystują uczenie maszynowe do pilotowania pojazdów czy identyfikacji wrogich obiektów. Nie do pomyślenia jest sytuacja, w której komputer podejmuje decyzję o likwidacji jakiegoś celu i nie potrafi wyjaśnić, jakie stoją za nią przesłanki. Jeśli w takim ataku ucierpią cywile, kogo powinniśmy winić za zaistniałą tragedię? Tymczasem DARPA (Defense Advanced Research Projects Agency), amerykańska agencja rządowa stojąca m.in. za powstaniem komputerowej sieci ARPANET, która przerodziła się we wszechobecny internet, pompuje miliony dolarów w sztuczną inteligencję na usługach amerykańskiej armii. A co jeśli pewnego dnia rozwinie się ona do tego stopnia, że postanowi się uniezależnić? Takimi scenariuszami karmił nas Holywood już w latach 80., a dziś są one bardziej realne niż kiedykolwiek wcześniej, jednak wciąż na tyle odległe, że możemy spać spokojnie i nie przejmować się widmem krwawej rebelii maszyn. Sztuczna inteligencja nie wymknęła się programistom spod kontroli, nie wyodrębniła własnej świadomości, a tym bardziej nie zbuntowała się przeciwko człowiekowi. Nie jest również na tyle rozwinięta, by stanowiła jakiekolwiek zagrożenie. Nawet jeśli w przyszłości uda się stworzyć sieć neuronową, która wielkością dorówna ludzkiemu mózgowi, to nie wiadomo, czy wykształci ona świadomość, wolną wolę lub abstrakcyjne myślenie. By to sprawdzić potrzebujemy komputera 100 tys. razy szybszego niż japoński superkomputer K, któremu udało się odtworzyć zaledwie sekundę aktywność, jaką wykonuje jeden procent mózgu człowieka. Symulacja ludzkiego mózgu to pieśń przyszłości. Tymczasem stoi przed nami ogromne wyzwanie: uczynić głębokie uczenie maszynowe transparentnym, nie podcinając mu skrzydeł. Stworzenie maszyn, które potrafią wytłumaczyć najbardziej skomplikowane procesy obliczeniowe będzie krokiem milowy w rozwoju sztucznej inteligencji.
Piotr Prajsnar, Prezes Zarządu Cloud Technologies
Tak jak elektryczność 100 lat temu zmieniła prawie wszystko, tak dziś z trudnością przychodzi mi znalezienie branży, której sztuczna inteligencja nie zmieni w nadchodzących latach – powiedział Andrew Ng, współtwórca platformy edukacyjnej Courser.Pod słowami wykładającego na uniwersytecie Stanford biznesmena podpisze się chyba każdy wizjoner, upatrujący w SI źródło rozwiązań niezliczonych problemów, z jakimi boryka się dziś nasza cywilizacja. Emocje studzą wypowiedzi sceptyków, którzy w rozwój inteligentnych maszyn dostrzegają zarówno błogosławieństwa, jak i zagrożenia, potrafiące przyprawić o dreszcze nawet prawdziwych weteranów futurystycznej literatury grozy. W gronie sceptyków znaleźli się m.in. Stephen Hawking i Elon Musk. Ten pierwszy od lat przestrzega przed konsekwencjami cyber ewolucji, snując czarne scenariusze, w których przetrwanie uciemiężonej ludzkości staje pod znakiem zapytania.
Rozwój pełnej, sztucznej inteligencji może doprowadzić do wyginięcia rodzaju ludzkiego — straszył w wywiadzie dla BBC wybitny fizyk teorytyczny.By nie dopuścić do anihilacji gatunku homo sapiens z rąk wrogo nastawionych maszyn, na Uniwersytecie Cambridge otworzono „Leverhulme Centre for the Future of Intelligence” - instytucję poświęconą analizie rozwoju sztucznej inteligencji. Podczas wieczoru inauguracyjnego, w krótkim przemówieniu Hawking po raz kolejny wyraził swoje zaniepokojenie. — Uważam, że nie ma najmniejszej różnicy pomiędzy tym, co można osiągnąć przez biologiczny mózg, a tym, co można osiągnąć za pomocą komputera. Komputery teoretycznie mogą naśladować ludzką inteligencję, a nawet ją przewyższyć — powiedział fizyk i dodał, że SI z jednej strony może doprowadzić do wyeliminowania chorób, ubóstwa i zmian klimatycznych, z drugiej zaś może przyczynić się do powstania niechcianych przez nas zjawisk lub rzeczy, takich jak autonomiczna broń, zakłócenia gospodarcze i maszyny, które po rozwinięciu własnej woli mogłyby wejść w konflikt z ludźmi.
Geneza inteligentnych maszyn
Gdy w drugiej połowie minionego stulecia rozpoczęto pracę nad rozwojem myślących maszyn, wyłoniły się dwie szkoły. Pierwsza postawiła na programowanie w sposób logiczny, tak by wewnętrzne procesy zachodzące w sztucznej inteligencji były transparentne i by w każdej chwili można było zajrzeć do jej kodu i dowiedzieć się czemu podjęła ona taką, a nie inną decyzję. Odmienne podejście mieli przedstawiciele drugiej szkoły, którzy wzorując się na żywych organizmach uznali, że lepiej będzie, jeśli sztuczna inteligencja uczyć się będzie sama. Obserwacja, zdobywanie doświadczeń i wyciąganie wniosków przez SI miało znacząco przyspieszyć jej rozwój i tak się stało. Uczenie maszynowe okazało się strzałem w dziesiątkę, a jego bardziej zaawansowana odsłona — sieci neuronowe — przyniosła prawdziwy przełom w rozwoju sztucznej inteligencji. Już w r. 1990 potrafiła ona odczytać pismo ręczne i przeformatować je na czcionkę komputerową. Dziś z głębokiego uczenia maszynowego firmy korzystają coraz częściej; banki zaprzęgają je do weryfikacji zdolności kredytowych swoich klientów, a zarządy największych korporacji dzięki zaawansowanym narzędziom do analityki danych podejmują lepsze decyzje biznesowe. Z inteligentnych algorytmów korzysta się również w reklamie internetowej, a platformy DMP (data management platform), analizujące gigantyczne wolumeny danych o preferencjach i zrachowaniach internautów, umożliwiają marketerom docieranie do grupy docelowej z wyjątkową precyzją. Bez uczenia maszynowego, okiełznanie rozległych zasobów Big Data byłoby niemożliwe do zrealizowania.
Mimo, że inteligentne algorytmy zyskują na popularności, to stopień nasycenia nimi rynku różni się w zależności od branży. Nikogo nie powinno to dziwić, bo w przypadku innych technologia sytuacja wygląda podobnie. Z uczeniem maszynowym wiąże się jednak pewien sekret, o którym nie wszyscy chcą głośno mówić, a to właśnie za jego sprawą nasze zaufanie do tej technologii pozostaje niepełne. Procesy zachodzące w sieciach neuronowych owiane są tajemnicą i nie wiadomo, co dokładnie stoi za podejmowanymi za ich pośrednictwem decyzjami. Głębokie uczenie maszynowe pozwala komputerom uczyć się na podstawie przedstawionych im przypadków i autonomicznie rozwiązywać problemy, jednak gdy w grę wchodzą złożone sieci neuronowe, a komputer bierze pod uwagę wiele wątków, to dostarczane przez niego wyniki, mimo że słuszne to nie zawierają łatwego w wytłumaczeniu uzasadnienia. Paradoksalnie, to właśnie branże, które nie mogą pozwolić sobie na beztroskie zaufanie w stosunku do maszyn i potrzebują wyjaśnień dla podejmowanych przez nie decyzji, najwięcej inwestują w rozwój SI. Według firmy analitycznej CB Insights, od roku 2012 na startupy pracujące nad sztuczną inteligencją przeznaczono łącznie 14,9 miliarda dolarów, a najwięcej inwestycji dotyczyło sektora Health and Wellness.
Człowiek żąda wyjaśnień
By wykorzystać wielkie, nieustrukturyzowane zbiory danych, po uczenie maszynowe sięgnęła Regina Barzilay, profesor MIT, u której w wieku 46 lat zdiagnozowano raka piersi. Zdumiona tym, że szpitale nie wykorzystują sztucznej inteligencji do analityki historii chorobowej pacjentów, postanowiła to zmienić. Jej nowa misja ma jeden cel: zrewolucjonizować medycynę. Profesor MIT doskonale zdawała sobie sprawę z tego, że do realizacji jej ambitnego projektu nie wystarczą gromadzone w szpitalach podstawowe akta pacjentów. By w pełni wykorzystać potencjał sztucznej inteligencji, postanowiła „nakarmić ją” m.in. danymi patologicznymi i obrazowymi. Wiedząc, jak działa uczenie maszynowe, Regina Barzilay wzbogaciła swój system o funkcję, która miała ułatwić zrozumienie generowanych wyników. Dzięki niej, komputer wyodrębnia i podkreśla fragmenty tekstu reprezentatywne dla odkrytego wzorca. Umożliwiło to lekarzom z Massachusetts General Hospital głębszą analizę wyróżnionych schematów. Takie rozwiązanie to półśrodek, który w przypadku analizy wyników badań pacjentów okazał się pomocny, jednak nie rozwiązuje on problemu z owianym tajemnicą wnioskowaniem głębokich sieci neuronowych.
Wglądu w procesy decyzyjne zachodzące w uczeniu maszynowym domaga się również Unia Europejska. Brukselscy urzędnicy najwyraźniej nie ufają sztucznej inteligencji wystarczająco, by wierzyć jej na słowo i odczuwają niepokój w związku z jej szeroką implementacją w biznesie. Już w połowie 2018 roku ma wejść w życie prawo zobowiązujące firmy posługujące się sztuczną inteligencją, by używane przez nie systemy potrafiły przedstawić wyjaśnienia dla swoich postanowień.
Czemu przywiązuje się do tego aż taką wagę? Łatwo zrozumieć to na przykładzie motoryzacji. Błąd komputera może skończyć się śmiertelnym wypadkiem. Odpowiedzialność spoczywająca na maszynie jest nieporównywalnie większa, a każda podjęta przez nią decyzja, w razie potrzeby powinna być automatycznie wyjaśniona. Amerykański koncern technologiczny Nvidia testuje już samochód, który w przeciwieństwie do innych autonomicznych pojazdów, nauczył się zasad poruszania w ruchu drogowym obserwując poczynania ludzi. Na razie nie spowodował on żadnego wypadku, ale gdyby pewnego dnia potrącił człowieka albo wjechał w płot, programiści mieliby nie lada zagwozdkę i do czasu jej wyjaśnienie najlepiej byłoby wycofać go z ruchu. Jeśli jednak pojazd przedzie wszystkie testy, to urzędnicy będą mieli niezły orzech do zgryzienia: czy takie samochody są wystarczająco bezpieczne, by jeździć po naszych ulicach?
Przed podobnym dylematem stoi dziś amerykańska armia, która przyszłość widzi w automatyzacji jednostek bojowych. Projekty opracowywane przez wojsko i agencje rządowe wykorzystują uczenie maszynowe do pilotowania pojazdów czy identyfikacji wrogich obiektów. Nie do pomyślenia jest sytuacja, w której komputer podejmuje decyzję o likwidacji jakiegoś celu i nie potrafi wyjaśnić, jakie stoją za nią przesłanki. Jeśli w takim ataku ucierpią cywile, kogo powinniśmy winić za zaistniałą tragedię? Tymczasem DARPA (Defense Advanced Research Projects Agency), amerykańska agencja rządowa stojąca m.in. za powstaniem komputerowej sieci ARPANET, która przerodziła się we wszechobecny internet, pompuje miliony dolarów w sztuczną inteligencję na usługach amerykańskiej armii. A co jeśli pewnego dnia rozwinie się ona do tego stopnia, że postanowi się uniezależnić? Takimi scenariuszami karmił nas Holywood już w latach 80., a dziś są one bardziej realne niż kiedykolwiek wcześniej, jednak wciąż na tyle odległe, że możemy spać spokojnie i nie przejmować się widmem krwawej rebelii maszyn. Sztuczna inteligencja nie wymknęła się programistom spod kontroli, nie wyodrębniła własnej świadomości, a tym bardziej nie zbuntowała się przeciwko człowiekowi. Nie jest również na tyle rozwinięta, by stanowiła jakiekolwiek zagrożenie. Nawet jeśli w przyszłości uda się stworzyć sieć neuronową, która wielkością dorówna ludzkiemu mózgowi, to nie wiadomo, czy wykształci ona świadomość, wolną wolę lub abstrakcyjne myślenie. By to sprawdzić potrzebujemy komputera 100 tys. razy szybszego niż japoński superkomputer K, któremu udało się odtworzyć zaledwie sekundę aktywność, jaką wykonuje jeden procent mózgu człowieka. Symulacja ludzkiego mózgu to pieśń przyszłości. Tymczasem stoi przed nami ogromne wyzwanie: uczynić głębokie uczenie maszynowe transparentnym, nie podcinając mu skrzydeł. Stworzenie maszyn, które potrafią wytłumaczyć najbardziej skomplikowane procesy obliczeniowe będzie krokiem milowy w rozwoju sztucznej inteligencji.
Piotr Prajsnar, Prezes Zarządu Cloud Technologies
Najnowsze wiadomości
Kwantowy przełom w cyberochronie - nadchodząca dekada przepisze zasady szyfrowania na nowo
Przez długi czas cyfrowe bezpieczeństwo opierało się na prostym założeniu: współczesne komputery potrzebowałyby ogromnych zasobów i wielu lat, aby złamać silne algorytmy szyfrowania. Rozwój technologii kwantowej zaczyna jednak tę regułę podważać, a eksperci przewidują, że w perspektywie 5–10 lat może nadejść „dzień zero”. Jest to moment, w którym zaawansowana maszyna kwantowa będzie w stanie przełamać większość aktualnie stosowanych zabezpieczeń kryptograficznych w czasie liczonym nie w latach, lecz w godzinach.
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
F5 rozszerza portfolio bezpieczeństwa o narzędzia do ochrony systemów AI w środowiskach enterprise
F5 ogłosiło wprowadzenie dwóch nowych rozwiązań - F5 AI Guardrails oraz F5 AI Red Team - które mają odpowiedzieć na jedno z kluczowych wyzwań współczesnych organizacji: bezpieczne wdrażanie i eksploatację systemów sztucznej inteligencji na dużą skalę. Nowa oferta łączy ochronę działania modeli AI w czasie rzeczywistym z ofensy
Snowflake + OpenAI: AI bliżej biznesu
Snowflake przyspiesza wykorzystanie danych i sztucznej inteligencji w firmach, przenosząc AI z fazy eksperymentów do codziennych procesów biznesowych. Nowe rozwiązania w ramach AI Data Cloud integrują modele AI bezpośrednio z danymi, narzędziami deweloperskimi i warstwą semantyczną. Partnerstwo z OpenAI, agent Cortex Code, Semantic View Autopilot oraz rozwój Snowflake Postgres pokazują, jak budować skalowalne, bezpieczne i mierzalne wdrożenia AI w skali całej organizacji.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Migracja z SAP ECC na S4 HANA: Ryzyka, korzyści i alternatywne rozwiązania
W ostatnich latach wiele firm, które korzystają z systemu SAP ECC (Enterprise Central Component), stoi przed decyzją o przejściu na nowszą wersję — SAP S4 HANA. W obliczu końca wsparcia dla ECC w 2030 roku, temat ten staje się coraz bardziej aktualny. Przemiany technologiczne oraz rosnące oczekiwania związane z integracją nowych funkcji, jak sztuczna inteligencja (AI), skłaniają do refleksji nad tym, czy warto podjąć tak dużą zmianę w architekturze systemu. Przyjrzyjmy się głównym powodom, dla których firmy rozważają migrację do S4 HANA, ale także argumentom, które mogą przemawiać za pozostaniem przy dotychczasowym systemie ECC, przynajmniej na krótki okres.
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Ponad połowa cyberataków zaczyna się od błędu człowieka
Ponad 2/3 firm w Polsce odnotowała w zeszłym roku co najmniej 1 incydent naruszenia bezpieczeństwa . Według danych Unit 42, zespołu analitycznego Palo Alto Networks, aż 60% ataków rozpoczyna się od działań wymierzonych w pracowników – najczęściej pod postacią phishingu i innych form inżynierii społecznej . To pokazuje, że w systemie ochrony organizacji pracownicy są kluczowym ogniwem – i że firmy muszą nie tylko edukować, ale też konsekwentnie egzekwować zasady cyberhigieny. Warto o tym pamiętać szczególnie teraz, w październiku, gdy obchodzimy Europejski Miesiąc Cyberbezpieczeństwa.
MES - holistyczne zarządzanie produkcją
Nowoczesna produkcja wymaga precyzji, szybkości i pełnej kontroli nad przebiegiem procesów. Rosnąca złożoność zleceń oraz presja kosztowa sprawiają, że ręczne raportowanie i intuicyjne zarządzanie coraz częściej okazują się niewystarczające. Firmy szukają rozwiązań, które umożliwiają im widzenie produkcji „na żywo”, a nie z opóźnieniem kilku godzin czy dni. W tym kontekście kluczową rolę odgrywają narzędzia, które porządkują informacje i pozwalają reagować natychmiast, zamiast po fakcie.
Przeczytaj Również
Infrastruktura w punkcie zwrotnym - 5 prognoz kształtujących AI, odporność i suwerenność danych w 2026 roku
W 2026 roku zyskają firmy, które traktują infrastrukturę nie jako obszar generujący koszty, lecz ja… / Czytaj więcej
Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI
72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej
Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane
Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej
Jak Cisco pomaga Europie spłacić dług technologiczny w krytycznej infrastrukturze sieciowej
Cyfryzacja, rozwój sztucznej inteligencji i nadchodzące komputery kwantowe wymagają od Europy stabi… / Czytaj więcej
MŚP inwestują w AI, kompetencje pracowników nadal wyzwaniem
Europejskie małe i średnie firmy coraz śmielej inwestują w sztuczną inteligencję, ale to kompetencj… / Czytaj więcej
AP EU AI Cloud: nowy standard suwerennej chmury i AI dla europejskich organizacji
SAP EU AI Cloud to zapowiedziana 27 listopada 2025 r. platforma, która łączy dotychczasowe inicjaty… / Czytaj więcej

