Blog

  • Od Marketing Automation do Marketing Intelligence – Rewolucja w Działaniach Marketingowych

    Od Marketing Automation do Marketing Intelligence – Rewolucja w Działaniach Marketingowych

    Już niedługo głównymi celami biznesowymi staną się wzrost retencji i satysfakcji klientów prowadzące w efekcie do zwiększenia zysku przy jednoczesnej optymalizacji kosztów – mówi Grzegorz Błażewicz, założyciel i CEO SALESmanago Marketing Automation, pierwszej w Polsce i jednej z pierwszych w Europie platform automatyzacji marketingu.

    Rozmawiała: Danuta Sass

    Na czym obecnie polega marketing automation?

    Marketing automation to dzisiaj znacznie szersza koncepcja niż tylko system dla działu marketingu. Platformy tego typu stają się centralnym punktem w działalności firm, w których gromadzone są wszystkie krytyczne w znaczeniu dane o klientach i potencjalnych klientach, czyli mówimy tutaj o zarządzeniu najważniejszym aktywem, jakie posiada każda firma – klientami i wiedzą o klientach.

    To zmienia dotychczasowy sposób pojmowania marketingu.

    Tak, marketing automation to także nowa filozofia marketingu. Po pierwsze, jak powiedział Peter Drucker: „Jeśli czegoś nie mierzysz, nie możesz tym zarządzać”. Zatem żeby mieć pełną kontrolę nad procesami marketingowymi, każdy CEO i CMO musi wiedzieć, nie zgadywać czy przypuszczać, ale właśnie wiedzieć, co działa, a co nie działa w pionie marketingu i dlaczego tak się dzieje. Po drugie, trzeba te dane później wykorzystać. Zbieranie ich dla samego zbierania mija się z celem. Najlepsze, co można z nimi zrobić, to zintegrować je w spójną całość, która później posłuży do tworzenia i dopasowania przekazu marketingowego oraz budowania procesów automatyzacji, a to one przekładają się na realną wartość dla firmy.

    Jakie wymagania stawia marketing automation przed firmą, która z niego korzysta?

    Wdrożenie automatyzacji oznacza dla firm duże zmiany – konieczność nabycia nowych kompetencji, nauczenia się obsługi narzędzi, innego planowania dnia – trzeba przestawić się na postrzeganie marketingu w zupełnie nowych kategoriach. Otwiera to rynek dla nowego rodzaju specjalistów od marketingu – osób przyzwyczajonych do korzystania z analizy danych i umiejących wspierać strategię marketingową odpowiednim oprogramowaniem do zbierania i przetwarzania danych cyfrowych. Jeśli już mowa o nowych specjalistach, to jest również popyt na tych, którzy są obeznani w temacie cyberbezpieczeństwa, zwłaszcza jeśli chodzi o zbieranie i przechowywanie danych wrażliwych, czy też ich wykorzystania i obróbki. I nie ma znaczenia, czy będą działać na poziomie tworzenia strony czy aplikacji i dbać o to, żeby klienci mogli bez obaw dokonywać przez nie transakcji, czy też będą specjalistami w zakresie zarządzania bezpieczeństwem informacji albo wyspecjalizują się w prawie dotyczącym bezpieczeństwa w sieci.

    Jak to wpłynie na współpracę wewnątrz organizacji?

    Nowe podejście do marketingu przepisuje od zera stosunki w firmie. Dział marketingu nie jest już dłużej samotną wyspą generującą koszty. Staje się na powrót częścią firmy, zatem pracownicy muszą nauczyć się współpracować ze sobą i rozmawiać wspólnym językiem: językiem danych. Zmienia to również zakres odpowiedzialności różnych działów. Sam marketing zaczyna się już na poziomie kodu strony www (czyli włączenie w proces działu IT), działania marketingowe są mierzone od A do Z i dzięki temu widać dokładnie, co i w jaki sposób wpływa na sprzedaż (uświadomienie marketingowcom ich roli w generowaniu zysku firmy), a dział sprzedaży dostaje kontakty, i to nie są anonimowi Janowie i Anny, ale konkretne osoby, które interesowały się konkretnymi produktami i treściami (kontynuacja działań marketingowych i dalsze budowanie relacji).

    W jaki sposób dziś marketing automation korzysta z Big Data?

    Big Data redefiniuje tradycyjne Kotlerowskie „4 P” wyznaczające ramy marketingu. Dzięki Big Data można wykorzystać zebrane informacje do optymalizacji czterech elementów, za których pomocą oddziałuje się na rynek. Big Data pozwala bowiem zidentyfikować, które produkty są najczęściej przeglądane i kupowane, pozwoli dynamicznie kształtować ceny (Price) dla różnych klientów w różnym okresie. Zebrane dane umożliwiają zlokalizowanie klientów i najlepszych kanałów do działań promocyjnych, czyli optymalizację miejsca (Place), a także promocji – testy a/b pomogą przewidzieć reakcje odbiorców. Wniosek? Wszystko zmienia się dzięki Big Data. Zaczynamy w systematyczny sposób myśleć o relacji z klientem od początkowego jej etapu aż po budowanie lojalności, możemy zrozumieć złożoność podróży zakupowej i w odpowiedni sposób zaadresować potrzeby klienta na każdym jej etapie.

    Czy można wstępnie przewidywać, jak marketing automation będzie wykorzystywany w przyszłości? Czy rozszerzy się z uwagi na rodzaj gromadzonych danych, czy będą lepsze efekty jakości, np. piętrowe analizy?

    Nie tylko różnorodność, ale przede wszystkim ilość danych zmienia się w lawinowym tempie. Z raportu IBM wynika, że przez ostatnie dwa lata wygenerowano 90% wszystkich danych na świecie. Ta liczba może zdumiewać, ale tylko do momentu, gdy uświadomimy sobie rosnącą – a już i tak gigantyczną – liczbę urządzeń mobilnych i codziennych wpisów, chociażby na portalach społecznościowych. Można przewidywać, że rozwój techniki, w tym zwiększenie mocy obliczeniowej komputerów, oraz postępujące przesuwanie granic prywatności w sieci spowodują udoskonalenie narzędzi marketing automation. W przyszłości prawdopodobnie będzie możliwe pełne indywidualizowanie ofert, co zmieni reguły gry w świecie reklamy. coraz większe znaczenie będzie miał marketing predyktywny, który stawia sobie za cel uprzedzenie potrzeb odbiorców: możesz wiedzieć, co chce kupić klient, zanim on sam rozpozna tę potrzebę. Ponadto, choć przywykliśmy traktować internet jako sieć łączącą ludzi, to jednak podłączonych jest do niej 15 mld przedmiotów (a w ciągu najbliższych pięciu lat ta liczba wzrośnie do 200 mld). Maszyny również wymieniają się informacjami i wykonują określone operacje. Dzięki temu odgrywają coraz większą rolę: nie są już biernymi narzędziami, ale aktywnie kształtują nasze nawyki. Tak wygląda nasza przyszłość: będziemy dążyli do większej wygody i efektywności, zrzucając coraz więcej drobnych zadań na maszyny, które coraz wydajniej będą się uczyć naszego zachowania i nawyków.

    W jaki sposób na marketing automation reagują klienci?

    Wielu marketerów boi się momentu wyjścia ze strefy komfortu, gdy trzeba będzie nabyć nowe umiejętności obsługi nowego narzędzia, wiec zasłaniają się argumentami typu: „nie potrzebuję Big Data” albo: „to nie dla mnie”. O marketing automation krąży wiele mitów, które często mają jedno źródło: lęk przed nieznanym.

    Jakie mity pokutują?

    Jednym z najczęstszych jest stwierdzenie, że to drogie rozwiązanie. Większość platform do automatyzacji marketingu działa w modelu SaaS, gdzie nie płacisz za każdym użyciem platformy, tylko comiesięczny abonament, dlatego ryzykujesz niewiele i możesz zrezygnować dowolnym momencie. Opłata jest uzależniona tylko od liczby kontaktów w twojej bazie. Gdy masz mało kontaktów, zapłacisz mniej, gdy zaś ich liczba zacznie wzrastać, opłata wzrośnie proporcjonalnie. W ten sposób mamy sytuację win-win, w której nasz klient „rośnie” razem z nami.

    Kolejnym mitem jest przekonanie panujące wśród przedsiębiorców, że platforma marketing automation to skomplikowane rozwiązanie zarezerwowane tylko dla dużych firm. Prawda jest jednak taka, że każdy system można dopasować do swoich potrzeb: wybrać wersję podstawową lub dodatkowe moduły. W małych firmach automatyzacja odejmuje sporo manualnej pracy, system dobiera i wysyła treści automatycznie, dzięki analityce można skupić się na najbardziej dochodowych kanałach. Daje to podwójną korzyść, gdyż z perspektywy klienta treści są bardziej dopasowane, a marketerzy zyskują czas na pracę kreatywną i analityczną.

    Obecnie konsumenci są coraz lepiej wyedukowani, a ruchy anonimizacji cyfrowej tożsamości są coraz popularniejsze.

    Współczesny odbiorca to osoba mająca dostęp do niesamowitej ilości informacji przetwarzanych w ogromnym tempie. Towarzyszą nam one na każdym kroku i przez cały dzień, m.in. w środkach masowego przekazu, miejskim krajobrazie wytapetowanym reklamami, internecie pełnym pop-up’ów i bannerów oraz e-maili z ofertami. Jako wypadkowa tych czynników wyewoluował zupełnie nowy rodzaj odbiorców, zwany prosumentami. Są oni odporni na spam i przekaz marketingowy, niezależni i proaktywni, czytają etykiety, szukają informacji na własną rękę i przebywają prawie 90% drogi zakupowej samodzielnie. Wiedzą, czego chcą, i znają swoje prawa.

    Czy Pana zdaniem może to ograniczyć rozwój marketing automation?

    Uważam, że trend na coraz większą anonimowość w sieci tylko przyspieszy rozwój softu do automatyzacji marketingu. Bynajmniej nie w kierunku prostych spambotów, zdobywających adresy e-mail skąd się da i wysyłających bezsensowne e-maile do wszystkich dostępnych kontaktów. Automatyzacja marketingu już teraz zmierza w kierunku wykorzystania mechanizmów uczenia maszynowego i sztucznej inteligencji. Pełna personalizacja przekazu marketingowego z uwzględnieniem jego kształtu, indywidualnych potrzeb klienta, najlepszego czasu dostarczenia wiadomości czy wyboru najlepszego kanału pozwala skrócić dystans pomiędzy firmą i odbiorcami i stworzyć prawdziwe, długoterminowe relacje. Mówiąc prościej, dążymy do zbudowania układu opartego na wzajemnym szacunku – wy powierzacie nam swoje dane, a my przygotowujemy dla was treści, które mają znaczenie i są naprawdę przydatne.

    Czy relacja rozwiązań marketing automation z klientem to będzie walka z użytkownikami, gra czy przede wszystkim współpraca?

    Jak już wspomniałem, nie jest to ani walka, ani gra. Po obu stronach równania stoją ludzie, których łączy zaawansowane oprogramowanie. Tu nie ma wygranych i przegranych. Marketerom zależy na budowaniu jak największej wartości każdego klienta w czasie, a klientom na zakupie produktów i usług w najkorzystniejszej cenie i w najwygodniejszy sposób. Wykorzystanie Big Data pozwala na przejście od analizy retrospektywnej do analizy prowadzonej w czasie rzeczywistym i analizy predyktywnej, a co za tym idzie, umożliwia komunikację z użytkownikiem w nawiązaniu do jego teraźniejszych i przyszłych potrzeb, a nie tylko do wzorów z przeszłości.

    Jak to działa w praktyce?

    Weźmy przykład smartfonów. Mobilna rewolucja trwa nadal i nic nie zwiastuje rychłej zmiany. Klienci coraz częściej oczekują w sklepach dostępu do Wi-Fi, aby tym sprawniej móc sprawdzić dostępność artykułów i znaleźć najkorzystniejszą dla siebie ofertę. Można z tym walczyć, ale można również uczynić z tego swój oręż. W arsenale każdego sprzedawcy znajdują się nie tylko aplikacje mobilne, ale również beacony (małe urządzenia działające na bluetooth niskich energii, komunikujące się ze smartfonami i między sobą) i platformy do automatyzacji marketingu mobilnego. Dane zdobyte w tym kanale można zintegrować z danymi w tradycyjnym CRM-ie i wykorzystać do uruchomienia wielopoziomowej (i wielokanałowej) kampanii uwzględniającej cykl życia produktu, zainteresowania klienta, jego lokalizację, stopień zaangażowania w relacje z marką, przeszłe i bieżące zachowania, a także przyszłe potrzeby.

    Czy w przyszłości w świecie rozwiązań marketing automation grozi nam wojna algorytmów? Czy i kiedy może nastąpić osiągnięcie przez te rozwiązania standardu czyniącego z marketing automation konieczną platformę działania, a wyróżnikiem konkurencyjnym będzie coś innego?

    Wydaje mi się, że to już się stało, stosowanie marketing automation jest już standardem. Topowi gracze będą wygrywać raczej na tym, jak z niego skorzystają. W najbliższym czasie uwaga skierowana będzie głównie na doświadczenia użytkownika (user experience). Wszystkie jego etapy będą projektowane i ulepszane na podstawie dokładnej i rzetelnej analizy danych, tak aby maksymalizować wartość każdego klienta w czasie. Klient, który jest lojalny i regularnie dokonuje u nas zakupów, jest obecnie na wagę złota. Warto uruchomić cały arsenał narzędzi, które pozwolą go zrozumieć, spersonalizować kierowany do niego przekaz i w rezultacie obsłużyć klienta po królewsku Głównymi celami biznesowymi staną się wzrost retencji i satysfakcji klientów prowadzące w efekcie do zwiększenia zysku przy jednoczesnej optymalizacji kosztów.

    Co zastąpi, a czego nie zastąpi marketing automation?

    Jak pisze Kyle Gibson, dzięki rozwojowi uczenia maszynowego (machine learning) roboty są w stanie już dziś rozwiązywać wiele problemów, które kiedyś mógł rozwikłać jedynie człowiek. Nie tylko marketerzy powinni się tym przejąć: do 2025 r. maszyny przejmą 1/3 ludzkich zawodów, w tym anestezjologów, analityków, pracowników obsługi klienta, chirurgów czy prawników. Algorytmy dają możliwość automatyzacji zadań poznawczych, co nigdy wcześniej nie było możliwe. Dzięki nim na horyzoncie szykuje się ogromna transformacja, która zmienić może całe rynki.

    Na razie jednak, pomimo przekształcania danych w sztuczną inteligencję, a inteligencję w zautomatyzowaną strategię, nadal w całym procesie niezbędny jest udział człowieka. Nieuchronnie zbliża się jednak era systemów marketing intelligence, które mogą przetwarzać dane i generować rekomendacje usprawnień, opierając się na zasadach rachunku prawdopodobieństwa. Wszystko wskazuje więc na to, że jesteśmy już niedaleko całkowicie automatycznych strategii marketingowych, w których głównym zadaniem marketera będzie nadzór i polepszanie rekomendacji opartych na algorytmach, a nie jak do tej pory samodzielne opracowywanie strategii.

    Proszę powiedzieć, jak przebiega upowszechnienie rozwiązań marketing automation w Polsce.

    Polacy coraz bardziej dostrzegają potrzebę korzystania z platform do marketing automation. W tym momencie nie są one już rozpatrywane w kategoriach drogich nowinek z Zachodu. Postrzegane są raczej jako normalne narzędzie ułatwiające pracę wielu osób i, co równie ważne, długoterminowa inwestycja strategiczna, przynosząca realne zyski. Jeśli chodzi o użytkowników, to nie ma reguły – korzystają z nich zarówno światowe korporacje, jak i małe oraz średnie firmy. Mimo wszystko rynek nie jest jeszcze przesycony – według badań Grupy Aberdeen tylko 43% firm wdraża marketing automation w perspektywie długoterminowej.

    Kim są pionierzy, jaki typ biznesu reprezentują?

    Po platformy marketing automation najczęściej sięgają osoby, które śledzą trendy i rozwiązania stosowane przez topowych graczy, duże firmy, gdzie automatyzacja jest standardem, ale też marketerzy pracujący w trybie operacyjnym, wykorzystujący platformę jako narzędzie do rozwiązywania konkretnych problemów.

    W jaki sposób wchodzące w życie w maju 2018 r. rozporządzenie o ochronie danych osobowych RODO (GDPR) wpłynie na rozwój marketingu, zwłaszcza narzędzi korzystających z danych behawioralnych, danych w Big Data i z internetu rzeczy?

    Rozporządzenie niczego nie zmieni. Zapewne będzie tak jak ze zmianami w zakresie cookies, o które też była wielka burza, a skończyło się na płynnym i w zasadzie bezkolizyjnym dostosowaniu. Przepisy RODO dotyczą przede wszystkim zwiększenia ochrony danych osobowych osób fizycznych. W ślad za tym idą obowiązki administratorów, których spełnienie będzie wymagało kolejnych nakładów na zatrudnienie osób do przygotowywania informacji, raportów i analiz, a nie rozwoju biznesu. W konsekwencji rozporządzenie może wpłynąć na wykreowanie potrzeby zautomatyzowania innych niż marketingowe procesów w firmie. To będzie dla nas kolejne wyzwanie.

    Dziękuję za rozmowę.

    Grzegorz Błażewicz Założyciel i CEO SALESmanago Marketing Automation. Posiada ponad 15-letnie doświadczenie w polskiej międzynarodowej branży marketingowej. Karierę zawodową rozpoczynał w agencjach marketingowych w Nowym Jorku i Londynie. Przez 6 lat pełnił funkcję dyrektora marketingu Grupy Kapitałowej Comarch. W 2006 r. został prezesem zarządu Interia.pl, jednego z największych portali internetowych w Europie. W 2008 r. doprowadził do sprzedaży portalu dla jednej z największych grup medialnych na świecie – Bauer Media. Od tego czasu jako przedsiębiorca zajmuje się tworzeniem oprogramowania dla działów marketingu, czego wynikiem jest powstanie SALESmanago Marketing Automation. Finalista konkursu Przedsiębiorca Roku EY 2014.

  • Widzialna ręka państwa – Innowacje i rozwój

    Widzialna ręka państwa – Innowacje i rozwój

    Małgorzata Pokojska | 14.02.2017

    Nie ma rozwoju gospodarczego bez konkurencyjności, nie ma konkurencyjności bez innowacji, nie ma innowacji bez aktywnej roli państwa. Tak streścić można główną myśl naukowego wywodu Mariany Mazzucato, ekonomistki z Uniwersytetu w Sussex, zaprezentowaną w książce „Przedsiębiorcze państwo”.

    Cierpliwy Inwestor

    Mazzucato kwestionuje tezę, że państwo jest niezdarne i zbiurokratyzowane. Pokazuje, że to właśnie ryzykowne inwestycje państwowe położyły fundamenty pod Internet i pomogły w zabłyśnięciu takim gwiazdom, jak Apple czy Google. Najbardziej rewolucyjne technologie w sektorach informatycznym, farmaceutycznym, biotechnologicznym, nanotechnologicznym, zielonej energetyki zostały u swych źródeł sfinansowane ze środków publicznych. To nie sektor venture capital (VC) podejmuje najwyższe ryzyko, lecz państwo, które jest inwestorem odważnym i cierpliwym.

    Tylko państwo, które ma długą perspektywę wzrostu gospodarczego, może zagwarantować innowacyjnym firmom wsparcie finansowe i strategiczne niezależne od koniunkturalnych wstrząsów.

    Katalizator Rozwoju

    Zdaniem Mazzucato, uparte odtwarzanie dychotomii dynamicznego i konkurencyjnego sektora prywatnego oraz zbiurokratyzowanego i nieudolnego sektora publicznego sprawiło, iż wiele osób uwierzyło, że kryzys finansowy z 2007 r. został spowodowany przez dług sektora publicznego, a nie przez nadmierne zadłużenie prywatne. Nie deficyt budżetowy jest ważny, lecz na co wydaje się pieniądze.

    Problem w tym, że państwo nie dba o swój wizerunek, nie nagłaśnia swoich zasług. Wszyscy wiemy o porażce z samolotem Concorde, ale nie wiemy, że algorytm, który umożliwił sukces Google, został stworzony w ramach grantu udzielonego przez amerykańską Narodową Fundację na rzecz Nauki (NSF).

    Symbioza Czy Pasożytnictwo

    Sektor prywatny nie rwie się do inwestowania w innowacje, gdy poziom ryzyka jest duży. Tworzy za to mity o ich pochodzeniu, gdy ryzyko zmniejsza się. W ostatnich latach w USA zaobserwowano wzrost inwestycji sektora publicznego, spadek w sektorze prywatnym. Relacje między sektorem publicznym i prywatnym w obszarze innowacji coraz rzadziej przypominają symbiozę, a częściej pasożytnictwo.

    Podział Pracy Innowacyjnej

    Nowa teoria wzrostu mówi, że nie wystarczą same wydatki na badania i rozwój, potrzebny jest rozwój systemów innowacyjnych. Wszyscy gracze: państwo, uniwersytety i firmy muszą uczestniczyć w procesie innowacyjnym, by był on efektywny.

    Mazzucato obala mity powstałe wokół wzrostu napędzanego innowacjami: nie ma wiele dowodów, że innowacje poprawiają wyniki produkcyjne firm. Sektor MŚP wcale nie jest najważniejszy dla innowacji i wzrostu, lecz firmy szybko rosnące. Prywatny sektor VC wcale nie kocha ryzyka. Ma krótki horyzont inwestycyjny i wkracza, gdy ryzyko jest już opanowane przez inwestycje publiczne.

    Jak Powstała Potęga Apple

    Nie byłoby iPoda, iPhone’a czy iPada, gdyby nie publiczne inwestycje w rewolucyjne technologie, takie jak: Internet, GPS, ekran dotykowy. Apple wykorzystała swój geniusz nie do opracowywania nowych technologii, ale do włączania ich w innowacyjny system. Produkty Apple są oparte na technologiach wytworzonych gdzie indziej, które firma wyławia, integruje i rozwija.

    Siła Strategii

    USA nie zdołały podtrzymać wsparcia dla sektorów energii wiatrowej i słonecznej i dziś Dania, Niemcy oraz Japonia i Chiny wysuwają się na prowadzenie. Państwem, które posiada strategię w tej dziedzinie, są Chiny. Chiński rząd wytyczył cele i poziomy finansowania. Do 2050 r. ma powstać rynek energii wytwarzanej przez turbiny wiatrowe wielkości europejskich i amerykańskich sieci elektrycznych, a rynek paneli słonecznych ma wzrosnąć o 700% w ciągu trzech lat.

    Państwo Przedsiębiorcze Czy Naiwne

    Nakłady, jakie ponosi państwo na innowacyjny wzrost mają charakter społeczny, a zyski pozostają prywatne. Mazzucato proponuje kilka rozwiązań. Państwo mogłoby pobierać opłaty licencyjne, które zasilałyby narodowy fundusz innowacji, mogłoby utrzymywać złotą akcję w patentach uzyskiwanych dzięki finansowaniu ze środków publicznych, mogłoby opatrzyć granty warunkiem, iż powyżej określonego dochodu, beneficjant zwraca część otrzymanych środków. Dobrym pomysłem są też państwowe banki rozwoju.

    Gospodarka kapitalistyczna była i będzie podporządkowana państwu, które powinno tworzyć i kształtować rynki. Czas wyzwolić się od mitów i docenić gracza, bez którego rozwój byłby niemożliwy.

  • Smart City dla pieszych – idea czy rzeczywistość?

    Smart City dla pieszych – idea czy rzeczywistość?

    W miastach będzie z czasem coraz mniej miejsca dla własnych środków transportu – to nieuchronny kierunek rozwoju – mówi prof. zw. dr hab. inż. Jacek Szołtysek, kierownik Katedry Logistyki Społecznej Uniwersytetu Ekonomicznego w Katowicach w rozmowie z Patrycją Dziadosz.

    Patrycja Dziadosz: Czym tak naprawdę jest smart city? I jakie warunki musi spełniać miasto, aby można je było uznać za inteligentne?

    Jacek Szołtysek: Jeżeli uznać, że miasto to swoista mądra kombinacja przestrzeni oraz ludzi, którzy tą przestrzeń zajęli, by na niej zamieszkać, zagospodarowując ją i zmieniając według jakiegoś zamysłu – to miasto już w samym swoim genotypie jest w jakimś sensie „smart”. Takie pytanie, jest kierowane do mnie coraz częściej i muszę przyznać, że im dłużej na nie odpowiadam, tym większe mam problemy z tym, czy aby na pewno moja odpowiedź jest słuszna.

    Patrycja Dziadosz: Dlaczego?

    Jacek Szołtysek: Ponieważ istnieją dwa sposoby odpowiedzi, które są związane z dwoma różnymi nurtami. Pierwszy – mimo iż, nie zbyt współcześnie popularny, ale ma dużą rację bytu – to nurt kontemplacyjny, czyli rezultat biernego poznawania rzeczywistości funkcjonowania miast, drugi zaś – bardziej współczesny – wiążący mądrość miast z postępem technologicznym – podkreślającym możliwości Internetu Rzeczy i technologii, które mamy do dyspozycji.

    Patrycja Dziadosz: Czy w tych podejściach zmieniło się coś na przestrzeni ostatnich lat?

    Jacek Szołtysek: W dzisiejszym świecie dużo łatwiej się myśli, gdy podpowiedzi są podsuwane przez rozmaite urządzenia, tak, jak łatwiej się odszukuje odpowiedzi na nurtujące nas problemy w Internecie, niż w tradycyjnej bibliotece. Stąd o wiele łatwiej teraz, niż to było jeszcze ćwierć wieku temu o to, by miasto swoją „inteligencję” rozwijało bardziej dynamicznie i wszechstronnie w sytuacji, gdy ma do czynienia z wielkim wsparciem informatycznym. Dlatego można uznać, że mianem „smart” określa się miasto, gdzie technologie są wzajemnie powiązane i rozwijane. Miejsce, które udostępnia zoperacjonalizowane doświadczenie życiowe – czyli takie doświadczenie, które przekładamy na konkretne wskaźniki, mierniki czy wysnuwamy z niego generalne wnioski – przenosząc je na zupełnie nowy poziom. To również miasto, którego włodarze posiadają umiejętność dokonywania wyborów między niekiedy sprzecznymi interesami i uwarunkowaniami oraz doskonalenia budżetu oraz proaktywnego planowania, zamiast reagowania na już występujące niedogodności.

    Patrycja Dziadosz: Gdyby miał Pan wskazać najistotniejszy czynnik w budowaniu inteligentnego miasta, to co by nim było?

    Jacek Szołtysek: Odpowiedź jest dosyć problematyczna, bowiem stoi pomiędzy dwoma wymienionymi wcześniej podejściami. Gdy uznamy, że technologia determinuje rozwój miasta w kierunku „smart”, to najistotniejszym czynnikiem będzie kompleks informatycznych zjawisk i urządzeń, takich jak Internet, czy kompetencje wystarczające do robienia dobrego użytku z tego, co urządzenia są w stanie dostarczyć do tych osób czy jednostek, które z dostarczonego wkładu są w stanie wyciągać jakieś wnioski i do czegoś je wykorzystywać. To oczywiście bardzo uproszczony obraz, trudno w nim dostrzec zjawiska, które mogą nas niepokoić. Otóż niejednokrotnie mamy do czynienia nie tylko z pozyskiwaniem i gromadzeniem informacji w czasie rzeczywistym oraz ich przetwarzaniem i dostarczaniem do człowieka. Również nie zapominajmy o tym, że urządzenia „rozmawiają” z innymi urządzeniami, same doskonalą swoją – co prawda sztuczną – inteligencję, ale też zaczynają bez naszej wiedzy, czy raczej obok nas podejmować konkretne działania. Czasami jesteśmy z tego zadowoleni, bo wyręczają nas w niektórych sprawach.

    Patrycja Dziadosz: Ale czasami się go obawiamy…

    Jacek Szołtysek: Niestety tak. Miejska tkanka wyposażona jest w szereg czujników, zbierających informacje – najczęściej w postaci monitoringu, który służy przede wszystkim do walki z nieprzepisowym parkowaniem, względnie – z osobami zakłócającymi porządek lub spożywającymi alkohol w miejscu publicznym. Rozwijane są systemy łączące dane z monitoringu z innymi informacjami. Niektóre z tych urządzeń umożliwiają przekazywanie poleceń głosowych oraz – podsłuchiwanie; również pojazdy, pomieszczenia biurowe, czy nawet umieszczone na ludziach, a także wykorzystywanie do obserwacji dronów – to wszystko źródła danych, pozyskiwanych w czasie rzeczywistym. Budynki wyposażone są ponadto w systemy kontroli dostępu, opierające swoje działanie na identyfikowaniu osób wchodzących i wychodzących z budynku, gromadząc rozmaite dane o nich. Aktualnie szczególnie intensywnie eksploatowanym polem jest komunikacja publiczna – poza wspomnianymi już kamerami oraz mikrofonami w przestrzeni pasażerskiej, mamy do czynienia z coraz szerszym zakresem gromadzenia informacji o pasażerach, zaciąganych do systemu z kart miejskich, podobnie jak w instytucjach handlowych czy też bankowych – z kart płatniczych. Zatem zaczynamy żyć w miastach, które są w stanie nas kontrolować i inwigilować – czyli w praktyce ograniczać naszą wolność. Trochę to pesymistyczne…

    Patrycja Dziadosz: Czy kapitał ludzki ma wpływ na inteligentność miasta?

    Jacek Szołtysek: Tak. Bez wątpienia ludzie i ich cechy obserwowane niezwykle szeroko i wielowątkowo, mają wpływ na to, czy miasto będziemy uznawać za inteligentne. Jestem w stanie nawet zaryzykować pogląd, że czym wyższy kapitał społeczny – a w Polsce obecnie obserwujemy spadek jego poziomu – tym potencjalnie większa inteligencja miasta. Bez wątpienia to od ludzi, a nie od urządzeń zaczyna się smart city.

    Patrycja Dziadosz: Jeśli już jesteśmy przy wątku związanym z ludźmi, to czy miasto ma jakąś rolę w kreowaniu zachowań swoich mieszkańców? Czy dysponuje możliwością wpływania na człowieka i jego zachowanie? A jeśli tak, to czy powinno to robić?

    Jacek Szołtysek: Miasto jest organizacją społeczno-przestrzenną, czyli taką specyficzną umową, jaką ludzie zawierają z innymi ludźmi decydując się na zamieszkanie na wspólnej przestrzeni. Najczęściej mówimy, że ludzie mają pewne prawa – oczekują zaspokojenia społecznego, środowiskowego czy też politycznego, oraz obowiązki określane mianem solidarnego świadczenia na rzecz miasta. Z tego wynika, że miasto jest pewną dobrowolną umową społeczną, zatem jest dobrem wspólnym wszystkich mieszkańców. Moglibyśmy więc powiedzieć, że jako miasto my wszyscy możemy kreować zachowanie swoje i innych. I do pewnego stopnia jest to prawda. Jednak miasto jest też polem ścierania się różnych racji, poglądów, i to właśnie na tym tle dochodzi często do konfliktów. Jako miasto – czyli całość, próbujemy wpływać w różny sposób na zachowania ludzi – to zresztą znane od wieków zasady ustalania norm, kontroli ich przestrzegania oraz systemu nagród i kar. I w taki sposób miasta oddziałują na ludzi od zarania dziejów. Mogę dać przykład „stary jak świat” – są w mieście miejsca, do których nie każda osoba ma swobodny dostęp, czy też „nowy” – nakazujący ograniczanie prędkości przy jeździe przez miasto do absurdalnych 20 km/h. Z mojego punktu widzenia – osoby zajmującej się problematyką logistyki miasta – istotne jest kształtowanie zachowań komunikacyjnych, podkreślam to niejednokrotnie, że najbardziej skutecznym sposobem nie jest metoda „kija i marchewki”, ale kształtowanie poglądów i przekonań, kreowanie mody na takie, a nie inne sposoby pokonywania przestrzeni w miastach. Chodzi o to, by zachowania ludzi wypływały z ich wnętrza, czyli przekonań, a nie były podejmowane pod przymusem. I to miasto może robić poprzez szereg zachęt. Tak to widzę. A czy miasto powinno to robić? Powinno – dla swojego dobra, czyli dla dobra ogółu mieszkańców.

    Patrycja Dziadosz: Dobro mieszkańców powinno być kluczową sprawą dla wszystkich włodarzy miast. Czy inteligentne miasto powinno kłaść większy nacisk na zwiększenie komfortu podróżowania osobom poruszającym się własnymi środkami transportu czy też pieszym, którzy wykorzystują komunikację publiczną?

    Jacek Szołtysek: Odpowiem w sposób bezwzględny i niepopularny – w miastach będzie z czasem coraz mniej miejsca dla własnych środków transportu – to nieuchronny kierunek rozwoju. To stwierdzenie wywołało poruszenie wśród słuchaczy panelu o smart city, organizowanego w ramach tegorocznego Europejskiego Kongresu Gospodarczego w Katowicach. Mówiłem o tym przypominając, że miasta mają tradycję sięgającą 10 tys. lat, samochody w niej istnieją tylko od 100. Oznacza to, ze dyktat samochodu to zjawisko niezwykle młode, a zarazem niezwykle uciążliwe – nie tylko w przejawach kongestii transportowej, ale również w zanieczyszczeniu środowiska.

    Patrycja Dziadosz: Tak, ale z drugiej strony ludzie muszą jakoś się przemieszczać.

    Jacek Szołtysek: Tak, ale samochody szczególnie w niektórych społeczeństwach stanowią symbol statusu społecznego i po to są nabywane, by wygodnie, lepiej niż inni – przemierzać przestrzeń miasta. Musimy zatem znaleźć kompromis. Oczywiście z punktu widzenia całości miasta lepsze jest przemieszczanie się transportem zbiorowym, natomiast z punktu widzenia jednostki – samochodem prywatnym. Miasta dążąc do poprawy jakości transportu publicznego robią dobrą robotę, ale pewnie nie zniechęcą użytkowników samochodów prywatnych – nawet gdy zastosują ograniczenia czy utrudnienia w przemieszczaniu i parkowaniu. Zresztą, nie wszystkie części miasta są jednakowo intensywnie obsługiwane przez transport publiczny. Stąd próby mądrego łączenia przemieszczeń transportem zbiorowym i indywidualnym świadczą o inteligencji miasta.

    Patrycja Dziadosz: Jaka jest różnica pomiędzy ideą miasta nowoczesnego, a postnowoczesnego?

    Jacek Szołtysek: Różnica między miastem nowoczesnym a ponowoczesnym sprowadza się do stosunku miasta do tradycji. Miasto nowoczesne często odrzuca tradycję, miasto ponowoczesne do niej silnie nawiązuje, zachowania ludzi w takim mieście charakteryzuje triada zachowań: szybkość, ucieczka, bierność. Jeśli zauważamy, że ludzie zmieniają się w swoich zachowaniach, że unikają przypadkowych kontaktów, fizycznej bliskości, ludzie uprzywilejowani chronią się przed innymi, a ci inni reagują na tych pierwszych wrogością, gdy traci się każdy przejaw lokalności, to koncepcja miasta dla pieszych stwarza realne szanse na przezwyciężanie tych cech, które mają negatywną konotację. Zygmunt Bauman twierdził, że w przestrzeni miasta potrzebne są różnorodność i zróżnicowanie, zaś zagospodarowanie przestrzeni często prowadzi do niwelowania takich cech, zatem prowadzi do utraty tożsamości tychże miejsc. Nie odbudujemy jej, czy może nie odnajdziemy, przemieszczając się wewnątrz pojazdu – tu mamy szanse jedynie w pieszym przemieszczaniu. Zatem idea miasta najbliższej przyszłości, być może miasta wzorcowego, to współistnienie ludzi pozostających w dobrych relacjach, nawiązywanych w przestrzeni miasta, ale ta przestrzeń ma zachęcać do zatrzymania się, oglądania, kontemplowania, rozmawiania, uśmiechu, słuchania czy podziwiania. Taka powinna być idea miasta współczesnego. Miasta, które tworzy warunki dla zwiększania poziomu życia i zadowolenia z jakości życia – stwarzanej przez miasto. Czym wyższy poziom – tym większe szanse sukcesu miasta.

    Patrycja Dziadosz: Miasto dla pieszych to tylko idea czy może już w coraz większym stopniu rzeczywistość?

    Jacek Szołtysek: Próbując odpowiedzieć na to pytanie zaprosiłem profesorów: z SGH – Panią Halinę Brdulak, a z Uniwersytetu Opolskiego – Panią Sabinę Kauf do wspólnego zastanowienia się nad tym problemem. W rezultacie powstała książka „Miasta dla pieszych. Idea czy rzeczywistość”, w której, po zaprezentowaniu trzech autorskich spojrzeń na ten problem, doszliśmy do wniosku, że miasto dla pieszych to z jednej strony idea, z drugiej – wymóg rzeczywistości. Budowanie miasta dla pieszych to pomysł raczej dla społeczeństw bardziej zamożnych, chociaż przykład Bogoty pokazuje, że koncepcja miasta, w którym poruszanie się piesze, czy rowerowe, jak również sprytnie zaprojektowanym transportem zbiorowym, jest zupełnie realne w społecznościach mniej zamożnych, o ile przytrafi się charyzmatyczny przywódca.

    Patrycja Dziadosz: Takie miasto mogłoby być dużo bardziej przyjazne dla ludzi.

    Jacek Szołtysek: Z pewnością! Od kilku lat obserwuję, że to, co się dzieje z naszymi miastami, szczególnie tymi dużymi, to w istocie przechodzenie w miasta ponowoczesne – czyli nieprzyjazne dla ludzi, zwiększające ich samotność w tłumie, odrywające ich od miejsca swoich korzeni i nie sprzyjające tworzeniu relacji międzyludzkich. To wszystko niekorzystnie wpływa na wspomniany kapitał społeczny, który w mieście – jak sądzę – jest głównym tworzywem spójności i akceptacji różnorodności, dbania o wspólny interes w ramach przeciwstawiania się niekorzystnym przejawom rządów obecnej władzy miasta, czyli tworzy przesłanki wzrostu jakości życia w mieście. Ze swojej strony proponuję zastanowienie się nad istotą i zasadnością tworzenia przestrzeni publicznych w mieście, gdyż – w moim wyobrażeniu – są one szansą na zatrzymywanie się ludzi, będących w biegu, bądź przynajmniej ich spowalnianie, co sprzyja nawiązywaniu dialogu. Przestrzeń publiczna jest w takim zakresie swoistym „producentem czasu” – gdzie każde zjawisko, każda rzecz czy nawet każdy pomysł powoduje, że pojawia się w dyspozycji człowieka czas na spotkanie – na dialogi z innymi ludźmi.

    Patrycja Dziadosz: Jaką rolę w mieście dla pieszych powinna odgrywać logistyka?

    Jacek Szołtysek: Logistyka jest sztuką takiego konfigurowania przepływów w mieście, jak również informacji, związanej z tymi przepływami, by osiągać założone wcześniej cele na warunkach wcześniej umówionych. Oznacza to, że wszelkie przemieszczenia w mieście – osób i ładunków, mogą i powinny być w obszarze zainteresowania logistyków – w tym logistyków miejskich. Zatem logistyka, preferując spojrzenie systemowe, powinna ogarnąć swoim zainteresowaniem wszystkie te przemieszczenia i rozpatrywać je wspólnie – wtedy okaże się, jak godzić różne interesy, często sprzeczne, gdy jedni chcą wygodnie zaparkować na chodniku, a inni wygodnie jeździć rowerem po nim, a jeszcze inni – po prostu spacerować. Ponieważ przestrzeń chodnika jest ustalona i w tym samym czasie nie wszyscy mogą z niej korzystać, to właśnie do zadań logistyki miasta należy zmniejszanie tych konfliktów.

    Patrycja Dziadosz: Przestrzeń publiczna w tak skonstruowanym inteligentnym mieście odgrywa bardzo ważną rolę?

    Jacek Szołtysek: Tak, ponieważ to chyba najważniejsza rzecz w mieście, zapobiegająca niekorzystnej ewolucji w kierunku osławionego już miasta ponowoczesnego. Sama przestrzeń publiczna to taka przestrzeń, do której wstęp nie jest przez nikogo ograniczany, w sensie formalnym i faktycznym. To przestrzeń nie segregująca ludzi, ale ich jednocząca. Są tacy autorzy, którzy twierdzą, że nie ma sensu mówić o przestrzeni w kategorii prawa własności – że nic takiego, jak przestrzeń publiczna lub prywatna nie istnieje. Ja się jednak z takim stanowiskiem nie zgadzam. W smart city tworzenie takich przestrzeni, sprzyjanie inicjatywom dążącym do ustanawiania takich obszarów na terenie miasta, świadczy o inteligencji miasta.

    Patrycja Dziadosz: Jak powinna ona wyglądać, aby była przyjazna dla mieszkańców?

    Jacek Szołtysek: Ma być przyjazna i bezpieczna. W tych dwóch pojęciach mieści się wszystko. Bezpieczna i dla ludzi w sensie ich bezpieczeństwa zdrowotnego, emocjonalnego, fizycznego, prawnego; przyjazna w sensie zachęcająca każdego – powtarzam – każdego człowieka do pójścia tam i porozglądania się, posłuchania, a może – włączenia się w dyskusje. Tak powinny kształtować się wspólne decyzje co do wspólnego losu jednostek, mieszkających w mieście, ponieważ tak rodzi się prawdziwa akceptacja, współodpowiedzialność, tak też zwiększa się bezpieczeństwo w tych aspektach.

    Patrycja Dziadosz: Jaki wpływ na przestrzeń miasta mogą mieć przemiany społeczno-polityczno-ekonomiczne?

    Jacek Szołtysek: Jeśli będą szły w kierunku pogorszenia – sytuacji materialnej, jak również niekorzystnej społecznie (w aspekcie spójności), to wówczas te przestrzenie mogą stać się areną wrogich i niekorzystnych zjawisk społecznych. To co obserwujemy w obszarze częstych ostatnio manifestacji i kontrmanifestacji, to ilustracja takiego zjawiska. Zakaz organizowania kontrmanifestacji, gdy manifestacja ma pierwszeństwo, jest przejawem ograniczania „publiczności” przestrzeni publicznej. A to jest taka kropla, która może truć idee przestrzeni publicznej. Jeżeli władze – samorządowe, czy rząd – dążą do polaryzowania postaw i poglądów, to przestrzenie publiczne jedynie w miastach inteligentnych (ale w ich rozumieniu kontemplacyjnym) mogą stanowić przeciwwagę do takich działań. Zmniejszanie „publiczności” przestrzeni publicznej powinno być papierkiem lakmusowym, alarmującym o niekorzystnym trendzie. Dlatego uważam, że są one tak niezwykle istotnym elementem utrzymania demokracji lokalnej na poziomie gwarantującym zaspokojenie potrzeb mieszkańców i osiąganie zadowolenia z jakości życia, zatem przeciwdziałającym trendom populistycznym, anarchistycznym czy innym tego typu.

    Patrycja Dziadosz: Dziękuję za rozmowę.

    Jacek Szołtysek
    Jacek Szołtysek

    Profesor zwyczajny nauk ekonomicznych, kierownik Katedry Logistyki Społecznej Uniwersytetu Ekonomicznego w Katowicach. Swoje zainteresowania naukowe skupia przede wszystkim na problematyce logistyki miasta oraz logistyki zwrotnej, jest autorem wydanej przez ILiM monografii „Logistyka zwrotna”, swoje prace naukowe prezentował na licznych konferencjach krajowych i międzynarodowych, m.in. w Rosji i na Ukrainie, uczestniczył w stażach i pobytach zagranicznych w USA, Wielkiej Brytanii, Holandii i Niemczech. W swoim dorobku ma ponad 170 opracowań w języku polskim, angielskim, niemieckim i rosyjskim.

  • Najlepsze rozwiązania chmurowe w Polsce – przegląd zwycięskich wdrożeń

    Najlepsze rozwiązania chmurowe w Polsce – przegląd zwycięskich wdrożeń

    Chmura obliczeniowa to już nie tylko trend, ale realne narzędzie wspierające rozwój biznesu w Polsce. W tym artykule przyjrzymy się najciekawszym wdrożeniom chmurowym, które zostały docenione w konkursie Best in Cloud 2016 oraz przez redakcję Computerworld.

    Europapier-Impap: Rewolucja w komunikacji dzięki chmurze

    Europapier-Impap, lider w dystrybucji podłoży do druku, z sukcesem wdrożył chmurowy system telekomunikacyjny NFON. Dzięki temu rozwiązaniu firma zredukowała koszty, uprościła administrację oraz zyskała nowe funkcje, takie jak chat i wewnętrzna poczta głosowa. Wdrożenie pozwoliło również odciążyć działy IT w poszczególnych oddziałach.

    Wojskowa Akademia Techniczna: Nowoczesna serwerownia kontenerowa

    Wojskowa Akademia Techniczna (WAT) postawiła na innowacyjne rozwiązanie – kontenerową serwerownię o wysokiej gęstości. Wdrożenie, zrealizowane we współpracy z Atende S.A. oraz Emerson Network Power, obejmowało m.in. największą w Europie sieć SDN opartą o Cisco ACI. Dzięki temu WAT zyskał elastyczne i wydajne środowisko IT, które przyspieszyło realizację projektów badawczo-naukowych.

    Uniwersytet Jagielloński: Poczta dla 60 tysięcy użytkowników w chmurze

    Uniwersytet Jagielloński (UJ) wybrał chmurową usługę Microsoft Office 365, aby zapewnić niezawodną pocztę elektroniczną dla 60 tysięcy użytkowników. Wdrożenie, przeprowadzone we współpracy z polskim oddziałem Microsoft, obejmowało integrację z kilkudziesięcioma lokalnymi systemami. Dzięki temu UJ może teraz oferować nowe formy dydaktyczne i usprawniać komunikację.

    ING Services Polska: Szybsze dostarczanie usług dzięki prywatnej chmurze

    ING Services Polska (ISP) zbudowało prywatną chmurę opartą o System Center 2012 Microsoftu. Wdrożenie skróciło czas oczekiwania na dostawę aplikacji i serwerów baz danych z 12 dni do 3 godzin, a także obniżyło koszty utrzymania systemów o około 20%.

    Bank Spółdzielczy we Wschowie: Chmurowy HelpDesk dla lepszej obsługi

    Bank Spółdzielczy we Wschowie zintegrował usługi VoIP od dostawców zewnętrznych z własnymi rozwiązaniami, tworząc nowoczesną platformę do obsługi HelpDesku. Nowe narzędzie usprawniło komunikację wewnętrzną i zewnętrzną, a także zredukowało koszty operacyjne.

    PKP S.A.: Nowoczesne zarządzanie zasobami ludzkimi w chmurze

    PKP S.A. wdrożyło chmurowe rozwiązanie SAP SuccessFactors do zarządzania zasobami ludzkimi. System, obejmujący 8 modułów, zoptymalizował procesy HR i wpłynął na budowanie wizerunku PKP jako nowoczesnej organizacji.

    Inter Cars: Chmura wspiera rozwój e-commerce

    Inter Cars, lider w dystrybucji części samochodowych, wykorzystał MS Azure do wsparcia sprzedaży internetowej. Wdrożenie zapewniło lepszy dostęp do informacji o cenach i dostępności towarów, a także zmniejszyło czas niedostępności systemu. Obecnie blisko 60% przychodów firmy generowanych jest online.

    Przedstawione przykłady pokazują, że chmura obliczeniowa oferuje szerokie spektrum korzyści dla firm z różnych branż. Od redukcji kosztów, przez usprawnienie procesów, po zwiększenie elastyczności i innowacyjności – chmura staje się kluczowym elementem strategii rozwoju polskich przedsiębiorstw. Słowa kluczowe: chmura obliczeniowa, cloud computing, Best in Cloud, cyfryzacja, transformacja cyfrowa, IT, technologie, biznes, innowacje, optymalizacja, efektywność, SaaS, IaaS, PaaS, Microsoft Azure, SAP SuccessFactors, Office 365, NFON, Cisco ACI, SDN, VoIP, HelpDesk, e-commerce, Europapier, WAT, UJ, ING, BS Wschowa, PKP, Inter Cars.

  • Stanisław Gomułka: Polska gospodarka – co przyniesie przyszłość?

    Stanisław Gomułka: Polska gospodarka – co przyniesie przyszłość?

    W wywiadzie dla CXO.pl prof. Stanisław Gomułka, jeden z najwybitniejszych polskich ekonomistów, analizuje perspektywy rozwoju polskiej gospodarki i odpowiada na pytanie, czy mamy szansę dołączyć do grona państw rozwiniętych. Rozmowę przeprowadziła Patrycja Dziadosz.

    Rozwój gospodarczy Polski a klub państw rozwiniętych

    Prof. Gomułka definiuje państwo rozwijające się jako takie, w którym PKB na mieszkańca jest wyraźnie niższy niż w państwach wysoko rozwiniętych, ale które jednocześnie rozwija się w tempie znacząco wyższym, głównie dzięki przyswajaniu innowacji. Według niego, aby Polska mogła być uznana za kraj rozwinięty, poziom dochodów musiałby osiągnąć ok. 80% dochodów Niemiec, Japonii czy USA. Obecnie, Polska rozwija się w tempie ok. 4% rocznie, podczas gdy kraje rozwinięte notują wzrost na poziomie 1-1,5%. To dobra informacja, ponieważ oznacza kontynuację procesu doganiania.

    Kluczowe czynniki sukcesu i wyzwania dla polskiej gospodarki

    Sukces Polski jest nierozerwalnie związany z transformacją gospodarczą rozpoczętą ponad 27 lat temu. W porównaniu z Ukrainą, która startowała z podobnego pułapu, Polska osiągnęła znaczący postęp. Prof. Gomułka podkreśla jednak, że system oligarchiczny hamuje rozwój, co widać na przykładzie Ukrainy. Polska uniknęła tego scenariusza i w ciągu ostatnich 25 lat PKB na mieszkańca wzrósł z ok. 20-25% do 50-55% poziomu państw wysoko rozwiniętych. Mimo to, osiągnięcie poziomu 75-80% może zająć kolejne 25-30 lat.

    Polityka budżetowa i inwestycje a przyszły wzrost

    Prof. Gomułka wyraża zaniepokojenie polityką budżetową rządu, która dopuszcza deficyt na poziomie blisko 60 mld zł. Przy tempie wzrostu ok. 4%, Polska powinna mieć nadwyżkę budżetową, a nie deficyt. Realizacja programu 500 plus promuje konsumpcję, ale ogranicza możliwości inwestycyjne. Udział inwestycji w dochodzie narodowym spadł do ok. 17% PKB, a inwestycje publiczne w 2016 roku spadły o ok. 30%. Profesor dostrzega pewne sukcesy rządu w obszarze inwestycji, ale są one umiarkowane. Brak stabilności prawa i niepewność podatkowa mogą zniechęcać do inwestycji prywatnych.

    Mieszkanie Plus i wizyta Donalda Trumpa

    Prof. Gomułka krytycznie ocenia program Mieszkanie Plus, wskazując na niejasności dotyczące finansowania. Opowiada się za budową mieszkań przez sektor prywatny, z ewentualnym wsparciem państwa w postaci przekazywania gruntów i współfinansowania czynszu. Co do wizyty Donalda Trumpa, profesor uważa, że nie wpłynie ona znacząco na decyzje inwestorów, którzy są świadomi sytuacji w Polsce. Wizyta była istotna głównie w kontekście bezpieczeństwa i współpracy w ramach NATO.

    Podsumowanie

    Polska gospodarka ma szansę na dalszy rozwój i dołączenie do grona państw rozwiniętych, ale czekają ją poważne wyzwania. Kluczowe będzie utrzymanie dyscypliny budżetowej, promowanie inwestycji, szczególnie prywatnych, oraz zapewnienie stabilności prawnej i podatkowej. W ocenie prof. Gomułki, najbliższe lata pokażą, czy Polska wykorzysta swoją szansę na dalszy dynamiczny rozwój.

    Słowa kluczowe: Polska gospodarka, rozwój gospodarczy, Stanisław Gomułka, PKB, inwestycje, polityka budżetowa, 500 plus, Mieszkanie Plus, transformacja gospodarcza, kraje rozwinięte, deficyt budżetowy, wzrost gospodarczy, innowacje, rynek pracy

  • Szczupła produkcja – Lean Management w przedsiębiorstwie

    Szczupła produkcja – Lean Management w przedsiębiorstwie

    Jedną z technik zarządzania przedsiębiorstwem, a zwłaszcza produkcją, jest stosowanie zasad szczupłego zarządzania (lean management). Pozwala to na eliminowanie rozrzutności w procesach gospodarczych i produkcyjnych. Przyjęciu tych reguł towarzyszy zwykle zastosowanie odpowiedniego software’u.

    Procedury operacyjne stosowane są coraz częściej jako standardowe, pozwalając na osiągnięcie sukcesu na rynku. Zasady lean management mają zastosowanie w różnych typach zarządzania wytwarzaniem, w tym dla układów hybrydowych, gdy część procesu produkcyjnego sterowana jest taktem wymuszonym, np. na taśmie, a inna część kierowana zleceniami klientów. Wdrażanie zasad szczupłej produkcji w takim przypadku może odbywać się etapami, dzięki czemu obniża się koszty wdrożenia. Poniższy tekst jest omówieniem zasad stosowanych w szczupłym zarządzaniu i wymagań, jakie powinno spełniać wspierające je oprogramowanie.

    Oprogramowanie wspierające szczupłe zarządzanie w przedsiębiorstwie zwykle obejmuje planowanie i sterowanie produkcją oparte na prognozach popytu, harmonogramach dostaw, z uwzględnieniem wykorzystania zasobów produkcyjnych, często z wykorzystaniem sygnałów Kanban (etykiet i sygnałów elektronicznych). Zazwyczaj dodatkowo dostępne jest zarządzanie jakością, zarządzanie dokumentami, zarządzanie pracami projektowymi i zmianami konstrukcyjnymi. Zastosowanie zasad szczupłego zarządzania w przedsiębiorstwie nie eliminuje potrzeby planowania i nadzorowania realizacji zapotrzebowania na siłę roboczą i materiały. System ERP służy przedsiębiorstwu jako narzędzie do planowania i prognozowania, a szczupłe zarządzanie produkcją jako narzędzie do operacyjnego zarządzania produkcją na wydziałach. Dostawcy muszą otrzymywać oszacowanie przyszłych potrzeb, aby zaplanować terminy i wielkość swojej produkcji, a wydziały produkcyjne muszą być na bieżąco powiązane z systemem planistycznym przedsiębiorstwa. Dla minimalizacji poziomu zapasów konieczne jest sprawne i systematycznie aktualizowane zarządzanie systemem ERP. Bieżąca aktualizacja ERP może być realizowana przy pomocy kwitów z kodami optycznymi lub paskowymi, które powinny być czytane automatycznie, aby eliminować błędy wprowadzania danych lub sygnałów klasycznych czy elektronicznych Kanban. Pozwala to na natychmiastowe raportowanie wszelkich zmian w stanach magazynowych oraz transakcji obrotu materiałowego. Zasady i techniki szczupłego zarządzania mogą być stosowane znacznie szerzej niż tylko do zarządzania wydziałami produkcyjnymi. Mogą także obejmować inne procesy gospodarcze w przedsiębiorstwie oraz być rozszerzone na zarządzanie łańcuchem dostaw SCM pomiędzy powiązanymi ze sobą jednostkami gospodarczymi.

    Szczupłe zarządzanie

    Istnieje wiele określeń szczupłego zarządzania produkcją i przedsiębiorstwem. Filozofia szczupłego zarządzania produkcją pochodzi z doświadczeń firmy Toyota, sformułowanych w publikacji Jamesa P. Womacka „Machine that Changed the Word: The story of Lean Production”.

    Szczupłe przedsiębiorstwo to: „Grupa osób, funkcji oraz czasem zsynchronizowanych w działaniu prawnie niezależnych organizacji. W szczupłym przedsiębiorstwie określony jest strumień wartości dodanej, obejmujący tworzenie, wytwarzanie i dostarczanie na rynek usług i towarów. Celem szczupłego przedsiębiorstwa jest takie określenie wartości dla klienta końcowego, aby strumień wartości dodanej wytwarzany w przedsiębiorstwie, począwszy od projektu, poprzez produkcję, do sprzedaży i obsługi posprzedażnej, nie zawierał działań zbędnych, a tylko te, które wnoszą wartość dla klienta”.

    Szczupła produkcja to: „Takie podejście do produkcji, w którym kładzie się nacisk na minimalizację zużycia zasobów potrzebnych do realizacji różnych działań w przedsiębiorstwie. Czas jest jednym z zasobów. Szczupła produkcja identyfikuje i eliminuje działania, które z punktu widzenia klienta nie wnoszą wartości w projektowaniu, wytwarzaniu oraz w obsłudze łańcucha dostaw i kontaktach z klientami. Zarządzający zatrudniają personel wielozawodowy na wszystkich poziomach organizacji oraz wykorzystują uniwersalne, zautomatyzowane urządzenia produkcyjne do produkcji wielu różnorodnych wyrobów”.

    Można rozpocząć usprawnianie działania pewnych obszarów przedsiębiorstwa i osiągnąć sukces, jednak aby w pełni uzyskać efekty z wdrożenia szczupłego zarządzania, należy rozpocząć od opracowania odpowiedniej strategii ogólnej działań i następnie wdrażać ją systematycznie. Jest to ciągłe działanie zmierzające do poprawy funkcjonowania i dążenie do doskonałości. Doskonałości nigdy nie można osiągnąć, można jednak do niej dążyć.

    Zasady szczupłego zarządzania produkcją

    Zasady te są nakierowane na zwiększanie satysfakcji klienta końcowego, a w szczególności:

    • Tworzenie wartości dodanej dla klienta. Niezbędne jest rozpoznanie i zrozumienie tego, co stanowi wartość dla klienta i jako taka jest przez niego uznawana.
    • Analiza strumienia wartości dodanej. Trzeba przeanalizować wszystkie etapy procesów gospodarczych po to, aby określić, które z nich obecnie zwiększają wartość. Jeśli jakaś akcja nie wnosi wartości, to należy rozważyć jej zmianę lub eliminację z procesu.
    • Ciągłość przemieszczeń w procesie produkcji. Unikanie przepływu produktów w dużych partiach z jednego centrum do następnego. Produkty powinny przepływać w sposób ciągły, z minimalizacją zapasów i prac w toku, począwszy od surowców, do wyrobów gotowych, poprzez specjalizowane stanowiska produkcyjne.
    • Wyciąganie. Zapotrzebowanie klienta „wyciąga” z systemu produkcyjnego potrzebne do jego zaspokojenia wyroby. Jest to odmienne od innych systemów, w których produkty gotowe produkuje się na magazyn służący do kompletacji dostaw dla klientów.
    • Dążenie do doskonałości. Zwykle stwierdza się, że nie mają końca usprawnienia zmniejszające koszty, czas realizacji zamówień klientów, eliminacja błędów itd.

    Zasady te mogą być stosowane prawie wszędzie. Jednak gdy zapotrzebowania klientów są w znacznym stopniu zmienne i nieprzewidywalne oraz gdy sytuacja rynkowa w otoczeniu przedsiębiorstwa ulega częstym i istotnym zmianom, zasady te słabo się sprawdzają. Obliczenie wielkości, które są określane w sygnałach Kankan, oraz rytm produkcji – jej takt, wymagają, aby zarówno poziom wykorzystania zdolności produkcyjnych, jak i prognoza zbytu były znane z dużą dokładnością.

    Produkcja masowa

    Produkcja z taktem wymuszonym – produkcja masowa pozwala na obsługę praktycznie wszystkich typów produkcji, począwszy od projektowania na zamówienie i konfigurowania wyrobów z opcji, a skończywszy na produkcji powtarzalnej i o charakterze procesowym. Typowe zastosowanie to przemysł samochodowy. Wyroby są wytwarzane sekwencyjnie, po jednym w tym samym czasie, ustalonym rytmem. Jest to bardziej drastycznie inne podejście niż przy produkcji partiowej wg zleceń produkcyjnych przetwarzanych na kolejnych stanowiskach w licznych partiach. Konstrukcja wyrobów, procesy produkcyjne, oprzyrządowanie i załoga są tak dobrane, aby zapewnić równomierny przepływ produkcji i zminimalizować zapotrzebowanie na transport.

    Uważa się powszechnie, że z systemem Toyota związanych jest kilka cech, z których podstawowa brzmi: „jest miejsce dla wszystkiego i wszystko znajdzie się na miejscu”. Każdy element użyty w procesie gospodarczym jest jednoznacznie i widocznie oznakowany, i łatwo dostępny, a w szczegółach są stosowane:

    1. Zasada 6 sigma – jest to pojęcie statystyczne w praktyce oznaczające wystąpienie 3,4 defektu na milion możliwości jego wystąpienia. Zwykle w przemyśle poziom jakości wynosi ok. trzech sigma, tj. 67.000 defektów na milion. Podstawowe pojęcia 6 sigma to:
      • definiowanie,
      • pomiar,
      • analiza,
      • poprawa,
      • sterowanie.

      Osiągnięcie 6 sigma wymaga ścisłej współpracy wszystkich służb w przedsiębiorstwie oraz ścisłej współpracy z klientami i dostawcami. W przeciętnym przedsiębiorstwie, o poziomie jakości 3 sigma, koszty sterowania jakością i serwisu u klientów mogą osiągać do 25% całości kosztów wytwarzania. Po wdrożeniu tego systemu organizacyjnego uzyskuje się istotne oszczędności, ponieważ można zmniejszyć koszty operacji kontrolnych lub nawet z nich zupełnie zrezygnować.

    2. Zarządzanie wydziałami produkcyjnymi pozwala na planowanie, nadzorowanie oraz raportowanie realizacji produkcji. Powinna istnieć możliwość zarówno wykorzystania techniki MRP – „wciskanie” produkcji, jak i zastosowania sygnałów Kanban – „wyciąganie” przy produkcji masowej. W produkcji masowej elementy ze stanowiska na stanowisko oraz z wydziału na wydział przemieszczane są partiami w pojemnikach lub kontenerach w stałych ilościach. Zarządzający wydziałem dostaje do swej dyspozycji pewną liczbę kwitów, na tyle kontenerów, ile jest niezbędnych do realizacji planowanej produkcji. Kwity te pełnią rolę czeków, pozwalających na zamówienie i pobranie pojemników z podzespołami albo częściami z poprzedzającego etapu produkcji lub z magazynu. Rolę kwitów mogą pełnić przesyłane we właściwe miejsca dokumenty elektroniczne.

    Zastosowanie szczupłej produkcji pozwala, aby zlecenia klientów sterowały procesami produkcyjnymi i nie jest konieczne produkowanie na magazyn. Dzięki temu praca nie jest realizowana do momentu, gdy konkretny składnik nie jest niezbędny w kolejnym etapie produkcji. Pozwala to na elastyczność w procesie produkcji, zwłaszcza wyrobów, które mogą mieć wiele wariantów. Klienci przyzwyczajają się, że mogą mieć to, co chcą i kiedy chcą, a to stabilizuje zamówienia. Czasem nie jest możliwe lub potrzebne objęcie całej produkcji szczupłym zarządzaniem, np. gdy ze względów technologicznych część procesu produkcyjnego jest realizowana partiami, a montaż wg zasad szczupłej produkcji. Taką sytuację powinno obsługiwać oprogramowanie.

    1. Produkcja w gniazdach. Organizując produkcję i załogę w linię produkcyjną o kształcie litery U, można lepiej wykorzystać personel i usprawnić komunikację. Wyroby wędrują płynnie od jednej operacji do następnej i unika się dzięki temu produkcji w partiach przekazywanych do dalszej obróbki, a przed zakończeniem partii wyroby nie oczekują w kolejce. Materiały napływające na stanowisko albo na linię są bezpośrednio obrabiane.
    2. Wyrównywanie obciążeń – zarządzanie wykorzystaniem zdolności produkcyjnych. Istnieje wiele różnych narzędzi, które powinny być dostępne do przygotowania prognoz wykorzystania zdolności produkcyjnych podczas prognozowania przyszłej sprzedaży. Zwykle do tworzenia różnych wariantów prognoz wykorzystywana jest znajomość danych historycznych, informacji o sezonowości poziomu sprzedaży oraz terminach dostaw. Niezbędne jest wyrównywanie poziomu obciążeń zdolności produkcyjnych przy realizacji bieżących planów. Wykorzystanie takich technik jest szczególnie istotne wtedy, gdy cykl dostaw od zamówienia do dostawy produkcji jest dłuższy w stosunku do terminów oczekiwanych przez klientów. Można uzyskać informacje o zmianach wynikających z różnic pomiędzy prognozą a aktualnym poziomem sprzedaży. Dane te mogą być przekazywane do mechanizmów planistycznych, gdzie będą podlegać dalszej obróbce.
  • Wykup akcji własnych (buy-back) w teorii i praktyce | Analiza dla kadry zarządzającej

    Wykup akcji własnych (buy-back) w teorii i praktyce

    Popularność wykupów akcji własnych, znanych również jako buy-back, znacząco wzrosła w okresie przedłużającej się bessy na warszawskiej Giełdzie Papierów Wartościowych (GPW). W obliczu niskich wycen spółek, buy-back staje się atrakcyjną formą zwrotu kapitału do akcjonariuszy, budząc jednocześnie pytania o swoją rolę w budowaniu wartości firmy i relację z polityką dywidendową.

    Buy-back a dywidenda – alternatywa czy uzupełnienie?

    Według dr. Marka Panfila z SGH, buy-back nie powinien być traktowany jako substytut dywidendy. Doświadczenia globalnych gigantów, takich jak Wal-Mart czy Intel, wskazują, że inwestorzy pozytywnie oceniają spółki stosujące zarówno wykup akcji, jak i wypłatę dywidend, a także splity akcji. Te trzy mechanizmy razem stanowią narzędzia efektywnego zarządzania kapitałem i komunikacji z rynkiem.

    Wpływ buy-back na wartość spółki i oczekiwania inwestorów

    W ostatnich dwóch dekadach obserwujemy rosnącą presję akcjonariuszy na zwrot gotówki. W krajach rozwijających się objawia się to wzrostem wypłacanych dywidend, natomiast w krajach rozwiniętych wartość buy-backów przewyższyła wartość wypłat dywidend. W 2007 roku, na 351 spółek notowanych na GPW, 87 wypłaciło dywidendę, 12 przeprowadziło wykup akcji, a 18 dokonało splitu. W kolejnych latach, zwłaszcza w obliczu kryzysu finansowego i niskich wycen, liczba buy-backów dynamicznie rosła.

    Obecnie niska wycena wielu spółek na GPW sprzyja wykupom akcji. Jednak trudności w dostępie do finansowania zewnętrznego, spowodowane kryzysem, sprawiają, że zarządy częściej decydują się na zatrzymanie kapitału w celu zapewnienia płynności. To hamuje potencjalny wzrost liczby buy-backów, zwłaszcza w przypadku firm, które planowały sfinansować wykup kredytem.

    Bezpośredni wpływ buy-backu i dywidendy na wzrost wartości spółki jest trudny do jednoznacznego określenia i budzi kontrowersje w teorii finansów. Niemniej jednak, inwestorzy preferują spółki, które zapewniają zwrot kapitału. Buy-back jest narzędziem elastycznym, stosowanym w sprzyjających warunkach rynkowych, podczas gdy polityka dywidendowa powinna być stała i zgodna z przyjętą strategią.

    Przykłady z polskiego rynku

    Pierwszy buy-back w Polsce został przeprowadzony przez Polfę Kutno, w trakcie restrukturyzacji nadzorowanej przez Enterprise Investors, co pozytywnie wpłynęło na wartość spółki. Stomil Sanok z kolei, jako pierwszy wykorzystał wykup akcji do przeprowadzenia wykupu menedżerskiego (MBO). W ostatnich latach, znaczące kwoty na buy-back przeznaczyły Alchemia, Telekomunikacja Polska i TVN.

    Główne motywy i cele wykupu akcji własnych

    Najczęstszym celem wykupu akcji własnych jest ich umorzenie. Rzadziej akcje są nabywane w celu zaoferowania ich pracownikom w ramach programów motywacyjnych lub w celu realizacji zobowiązań związanych z emisją obligacji zamiennych na akcje. Nowelizacja Kodeksu Spółek Handlowych z października 2008 roku umożliwiła spółkom nabywanie akcji własnych z opcją ich dalszej odsprzedaży, co dodatkowo zwiększyło popularność buy-backów.

    Do głównych motywów przeprowadzania buy-backów należą:

    • Zmiana struktury kapitałowej: Poprzez zmniejszenie udziału kapitału własnego, spółka może dążyć do optymalnej struktury kapitałowej i obniżenia średniego ważonego kosztu kapitału (WACC).
    • Zmiana struktury własnościowej: Buy-back pozwala na zwiększenie wpływu głównych akcjonariuszy na walne zgromadzenie. Przykładem jest wzrost udziałów France Telecom w Telekomunikacji Polskiej SA z 47% do 52% w ciągu dwóch lat, osiągnięty poprzez buy-back, bez konieczności dokupowania akcji na rynku.
    • Obrona przed wrogim przejęciem: Zmniejszenie liczby akcji w wolnym obrocie utrudnia wrogie przejęcie.
    • Wykorzystanie nadwyżek gotówki: Buy-back jest sposobem na efektywne zagospodarowanie nadwyżek finansowych.
    • Pozytywny sygnał dla rynku: Wykup akcji może być interpretowany jako sygnał, że zarząd uważa akcje za niedowartościowane.

    Zalety i wady buy-backu

    Zalety:

    • Elastyczność w porównaniu do dywidendy.
    • Możliwość efektywnej zmiany struktury kapitałowej.
    • Pozytywny sygnał dla inwestorów.

    Wady:

    • Ryzyko utraty zaufania w przypadku odstąpienia od zapowiedzianego buy-backu.
    • Potencjalne nierówne traktowanie akcjonariuszy.
    • Ryzyko manipulacji kursem i wykorzystywania informacji poufnych.

    Aspekty prawne i regulacyjne

    Do 2008 roku w Polsce obowiązywał zakaz nabywania akcji własnych, wprowadzony jeszcze w 1934 roku. Buy-back był traktowany jako wyjątek od tego zakazu. Regulacje dotyczące wykupu akcji własnych wynikają z II Dyrektywy Unii Europejskiej, mającej na celu ochronę struktury majątkowej spółki. Istotne jest, aby buy-back nie naruszał kompetencji zarządu i walnego zgromadzenia oraz nie prowadził do nierównego traktowania akcjonariuszy.

    Wykup akcji może być prowadzony samodzielnie przez spółkę lub za pośrednictwem domu maklerskiego. Samodzielne prowadzenie buy-backu wiąże się z pewnymi ograniczeniami, np. zakazem zbywania akcji w trakcie okresów zamkniętych. Domy maklerskie nie podlegają tym ograniczeniom. Istnieją również regulacje dotyczące ceny wykupu oraz limitów wolumenu transakcji.

    Ważnym aspektem jest obowiązek ogłoszenia wezwania w przypadku nabycia pakietu akcji przekraczającego 10% w terminie krótszym niż 60 dni. Ponadto, umorzenie akcji może prowadzić do przekroczenia przez niektórych akcjonariuszy progów 33% lub 66% głosów na walnym zgromadzeniu, co wiąże się z obowiązkiem ogłoszenia wezwania na pozostałe akcje lub zbycia części akcji w celu zejścia poniżej progu.

    Rola domu maklerskiego

    Dom maklerski może pełnić rolę pośrednika w procesie buy-backu, zapewniając zgodność transakcji z obowiązującymi regulacjami. Istotne jest uwzględnienie aspektów podatkowych, które mogą być różnie interpretowane przez organy skarbowe. Domy maklerskie często oferują realizację buy-backu na zasadzie transakcji non-profit, co pozwala uniknąć problemów związanych z interpretacją podatkową.

    Podsumowanie

    Wykup akcji własnych to złożone narzędzie, które może przynieść spółkom i ich akcjonariuszom wiele korzyści, ale wiąże się również z pewnymi ryzykami. Decyzja o przeprowadzeniu buy-backu powinna być poprzedzona dogłębną analizą sytuacji finansowej spółki, jej strategii oraz uwarunkowań rynkowych i regulacyjnych. Warto pamiętać, że buy-back nie jest uniwersalnym rozwiązaniem i powinien być stosowany rozważnie, w połączeniu z innymi instrumentami budowania wartości, takimi jak polityka dywidendowa i split akcji. Efektywne zarządzanie kapitałem, uwzględniające zarówno buy-back, jak i dywidendę, może przyczynić się do trwałego wzrostu wartości spółki i zadowolenia inwestorów.

  • Król(owa) jest naga – pierwsze 100 dni rządu Beaty Szydło

    Król(owa) jest naga – pierwsze 100 dni rządu Beaty Szydło

    Minęło 100 dni od zaprzysiężenia rządu Beaty Szydło. Choć to krótki okres, warto pokusić się o pierwsze podsumowania. Co rządy Prawa i Sprawiedliwości oznaczają dla Polski? Jakie będą konsekwencje ekonomiczne wprowadzanych rozwiązań? Czy Polakom będzie żyło się lepiej?

    Autor: Roman Mańka

    01.03.2016

    Obietnice wyborcze a rzeczywistość

    W kampanii wyborczej Prawo i Sprawiedliwość zapowiadało „dobrą zmianę”, diagnozując sytuację społeczno-ekonomiczną Polski jako „ruinę”. Polacy uwierzyli w ten scenariusz, co nie było trudne, biorąc pod uwagę realne trudności w wielu obszarach życia. Rzeczywistość rozjechała się: dynamicznie rozwijająca się Polska metropolitalna kontrastuje z Polską powiatową, która nie nadąża za tempem przemian. Jednak czy lekarstwo nie okaże się gorsze od choroby? Czy nowa władza ma pomysł na Polskę?

    Zamieszanie wokół Trybunału Konstytucyjnego, jałowe projekty parlamentarne i wywoływanie wojen ideologicznych sugerują, że niekoniecznie. Szuflady z gotowymi ustawami okazały się puste. Po raz kolejny do władzy doszła ekipa nieprzygotowana do rządzenia.

    Program 500+

    Polityka demograficzna jest w Polsce potrzebna. Wskaźnik dzietności jest alarmująco niski – w 2014 roku wyniósł 1,29, podczas gdy do zastępowalności pokoleń potrzeba 2,1. Trudno krytykować samą ideę programu 500+, ale diabeł tkwi w szczegółach.

    Na dzietność wpływa wiele czynników: zamożność, jakość edukacji i opieki zdrowotnej, model kulturowy. Potrzebny jest cały katalog działań systemowych, a nie tylko pojedyncze kroki. Wydaje się, że niski wskaźnik dzietności w Polsce wynika z modelu kulturowego przyjętego po 1989 roku oraz z procesów pauperyzacji i braku pewności jutra.

    Najlepszym sposobem na poprawę sytuacji demograficznej byłby wzrost gospodarczy, budowanie zamożności i dobrobytu, tworzenie sprawnych struktur ochrony zdrowia i edukacji, a także poprawa sytuacji na rynku pracy.

    Program rządu PiS jest niesprawiedliwy (poza wyjątkami nie obejmuje pierwszego dziecka) i mało ofensywny. Bardziej petryfikuje obecną strukturę, niż ją modyfikuje. Jest drogi i suboptymalny – osiągnięte efekty będą niewspółmierne do kosztów. Lepszy byłby system dynamicznych dopłat do trojga dzieci, np. 300 zł na pierwsze, 500 zł na drugie, 800 zł na trzecie. Byłby droższy, ale efekty byłyby większe.

    Podatki

    System finansów publicznych w Polsce wymaga gruntownych reform. Obecny system jest niesprawiedliwy – opodatkowana jest przede wszystkim praca. Podatki płacą głównie ludzie biedni, a bogaci, korzystając z optymalizacji podatkowej, unikają ich płacenia. Nagminnie wyłudzany jest VAT.

    Rząd PiS nie zapowiedział gruntownej reformy. Mówi się o uszczelnieniu VAT, ale to ambitne i nierealistyczne przedsięwzięcie. Wprowadzane są za to nowe daniny: podatek bankowy i podatek obrotowy. Oba mogą negatywnie wpłynąć na gospodarkę, obniżając atrakcyjność Polski dla inwestorów i akcję kredytową. Koszty zostaną przerzucone na klientów.

    Doświadczenia wielu państw pokazują, że podwyższanie podatków niekoniecznie zwiększa dochody budżetowe. Krzywa Laffera ilustruje, że zależność ta jest odwrotnie proporcjonalna. Działania PiS idą w kierunku przeciwnym od pożądanego.

    Reindustrializacja

    O tempie rozwoju gospodarczego Polski zadecyduje poziom inwestycji prywatnych. Ważna jest nie tylko wielkość PKB, ale i jego struktura. W Polsce wciąż zbyt duży jest udział państwa we wzroście gospodarczym. To powoduje, że nominalne wartości PKB nie przekładają się na wzrost realny i nie budują dobrobytu.

    Polski wzrost gospodarczy jest słabo odczuwalny. Wynika to ze zbyt dużego wpływu struktur państwa na gospodarkę. Rządowy program reindustrializacji jeszcze bardziej zwiększy udział państwa w gospodarce, co może powodować, że statystyczny wolumen PKB nie będzie adekwatny do realnych procesów.

    Aktywność inwestycyjna państwa nigdy nie dorówna efektywności inwestycji prywatnych. Państwo powinno tworzyć warunki do jak najbardziej elastycznej działalności prywatnych podmiotów. Z reindustrializacją wiążą się trzy negatywne procesy: korupcja, klientelizm i marnotrawstwo. Podmiot prywatny zawsze wygra konkurencję z państwowym.

    Minimalna stawka godzinowa

    Bezrobocie i niskie płace w Polsce wynikają m.in. ze sztywnego kodeksu pracy i wysokiego opodatkowania pracy. Wprowadzenie minimalnej stawki godzinowej przyniesie efekt odwrotny od zamierzonego – zwiększy bezrobocie i szarą strefę. Jedynie uelastycznienie kodeksu pracy i redukcja obciążeń fiskalnych mogą doprowadzić do realnego wzrostu płac.

    Emerytury

    Polski nie stać na obniżenie wieku emerytalnego. Wynika to z negatywnych trendów demograficznych. Racjonalnym rozwiązaniem byłoby wprowadzenie równej dla wszystkich emerytury obywatelskiej i możliwości jej zwiększania w nieobligatoryjnych filarach. Zwiększyłoby to skłonność do oszczędzania i uratowało budżet.

    Egzamin dojrzałości

    Rząd Beaty Szydło wpadł w pułapkę własnych, mało realistycznych obietnic wyborczych. Może wybrać ekonomiczny realizm i porzucić przedwyborcze propozycje, narażając się na utratę poparcia, albo brnąć w populizm. Może też wybrać drogę igrzysk – wzniecanie wojen kulturowych i sporów ideologicznych.

    Wybór jednej z tych dróg będzie egzaminem dojrzałości. Rząd Beaty Szydło roztrwonił powagę i wiarygodność. Awantura wokół Trybunału Konstytucyjnego zachwiała wizerunkiem Polski. Nie jesteśmy postrzegani jako kraj przewidywalny, co będzie miało znaczenie dla gospodarki. Rząd nie jest przygotowany do rządzenia, nie ma gotowych ustaw ani kadr. Po raz kolejny potwierdziło się, że „król jest nagi”.

  • Czy CIO i CFO mówią wspólnym językiem? Wyniki debaty oksfordzkiej Klubu CIO

    Czy CIO i CFO mówią wspólnym językiem? Wyniki debaty oksfordzkiej Klubu CIO

    W dniu 3 lutego br. Klub CIO zorganizował debatę oksfordzką, w której wzięli udział dyrektorzy finansowi (CFO) oraz dyrektorzy IT (CIO). Tematem dyskusji była komunikacja między tymi dwoma grupami menedżerów. Drużyna CFO broniła tezy, że „Lingua franca CIO i CFO nie istnieje… z winy CIO”, natomiast drużyna CIO starała się tę tezę obalić.

    Przebieg debaty

    W debacie wzięli udział:

    • Strona CFO: Anna Barańska (Lurgi S.A.), Anna Pardej (NFI Empik Media&Fashion) oraz Siergiej Krasulenko (ISD Polska).
    • Strona CIO: Rafał Lewandowski (Ströer Polska), Hubert Meronk (Bank Ochrony Środowiska) oraz Jacek Pulwarski (Klub CIO).

    Dyskusja przebiegała w trzech rundach, podczas których obie strony przedstawiały swoje argumenty.

    Runda 1:

    CFO argumentowali, że między CIO a CFO istnieje przepaść w zakresie wiedzy i odpowiedzialności prawnej. Twierdzili, że CIO często nie rozumieją podstawowych pojęć finansowych, takich jak CAPEX czy OPEX, a jednocześnie uzurpują sobie prawo do współdecydowania o strategicznych wyborach, za które odpowiedzialność ponosi CFO. Uważają, że ta arogancja jest przyczyną problemów w komunikacji i braku wspólnego metajęzyka.

    CIO odpowiadali, że niezrozumienie terminów finansowych to rzadkość wśród dyrektorów IT, a uwarunkowania biznesowe i ekonomiczne są wspólnym mianownikiem rozmów. Ich zdaniem, lingua franca CIO i CFO powinien być język biznesu. Jeśli strony będą potrafiły rozmawiać w tym języku, to pozwoli to na efektywną współpracę.

    Runda 2:

    CFO podkreślali różnicę w odpowiedzialności, wskazując, że CFO mogą stracić majątek prywatny i ponoszą pełną odpowiedzialność za wyniki finansowe firmy. Zaznaczyli jednak, że nie mogą pracować bez informacji dostarczanych przez CIO. Uważają, że CIO powinni uczestniczyć w biznesie na poziomie doradztwa i propozycji, a nie wchodzić w strefę podejmowania decyzji bez odpowiedniego doświadczenia i wiedzy biznesowej.

    CIO argumentowali, że wspólne dobro i odpowiedzialność za firmę powinny łączyć CIO i CFO. Zwracali uwagę, że biznes potrzebuje narzędzi informatycznych, które są finansowane przez CFO, a CIO mają świadomość tej szerszej perspektywy.

    Runda 3:

    CFO stwierdzili, że wypracowanie wspólnego języka jest możliwe, ale wymaga porozumienia i zaangażowania obu stron. Ich zdaniem, CIO powinni zapraszać CFO do rozmowy od samego początku projektu, a wspólnym językiem powinien być język biznesowy, dostosowany do specyfiki danej firmy. CFO wyrazili chęć współpracy z CIO jako partnerami i podkreślili, że CIO powinni uczestniczyć w modelowaniu wyniku finansowego od samego początku, aby zrozumieć, jak buduje się wynik firmy i jaką mają w tym zakresie odpowiedzialność.

    CIO zwrócili uwagę, że zjawisko outsourcingu dotyczy w równym stopniu obu funkcji, a problem braku porozumienia wynika z niewiedzy na temat sensu i celu istnienia obu działów. Podkreślili, że nie ma dwóch równie podobnych działów, realizujących tak służebną rolę wobec całej firmy. Zauważyli, że CIO, którzy znają pojęcia finansowe, nauczyli się ich samodzielnie, ponieważ finanse nigdy nie chciały ich edukować. Stwierdzili, że wspólny język w zasadzie istnieje, ale nie działa, ponieważ CIO nie wiedzą, o co pytać.

    Jaki powinien być wspólny język CIO i CFO?

    Po debacie uczestnicy zastanawiali się, co mogłoby wchodzić w skład języka, którym porozumiewaliby się menedżerowie IT i finansów. Ustalono, że dobrym kandydatem na lingua franca jest język opisu obszaru zarządzania ryzykiem. Zarówno CFO, jak i CIO posiadają informacje na temat całego biznesu oraz doświadczenie w identyfikacji i wycenie ryzyka. CFO często muszą wychwytywać punkty krytyczne i informować o nich w sprawozdaniach finansowych, a CIO mogą im w tym pomagać, dostarczając odpowiednich danych w języku zarządzania ryzykiem.

    Drugim kandydatem jest język procesów. Obie funkcje postrzegają przedsiębiorstwo przez pryzmat procesów, a optymalizacja jest realizowana w podejściu procesowym. Uczestnicy zgodzili się, że przedsiębiorstwo, zarówno jako mechanizm finansowy, jak i konstrukcja IT, powinno być postrzegane przez pryzmat procesów, a nie silosów.

    Ostatecznie, w zgodnej opinii, lingua franca CIO i CFO mogłaby wytworzyć się na styku języka zarządzania ryzykiem i języka zarządzania procesami. Istnienie języka porozumienia zależy także od dojrzałości i kultury firmy. Kluczowe jest skupienie się na dochodowości i osiągnięciu celów firmy, a wtedy porozumienie pojawia się samoistnie.

    Uczestnicy debaty zgodzili się, że CIO nie powinien reprezentować interesów biznesu. Każda potrzeba biznesowa realizowana przez IT powinna być poparta analizą i obliczeniem NPV lub business case. Zaproponowano, aby język porozumienia CIO i CFO był językiem wspólnego frontu przeciw biznesowi. Biznes powinien uzasadniać swoje potrzeby, a CIO i CFO powinni wspólnie planować najlepszy sposób ich realizacji.

    Debata oksfordzka Klubu CIO pokazała, że komunikacja między CIO i CFO jest złożonym zagadnieniem. Wypracowanie wspólnego języka jest możliwe, ale wymaga zaangażowania obu stron i skupienia się na celach firmy. Język zarządzania ryzykiem i procesami wydaje się być dobrym fundamentem do budowania efektywnej komunikacji między dyrektorami IT i finansowymi.

  • Chmura obliczeniowa motorem wzrostu gospodarczego i zatrudnienia

    Chmura obliczeniowa motorem wzrostu gospodarczego i zatrudnienia

    Według badań przeprowadzonych przez Centre for Economics and Business Research na zlecenie EMC, cloud computing może do 2015 roku przynieść europejskim gospodarkom 763 mld euro dodatkowych zysków i stworzyć 2,4 miliona nowych miejsc pracy. Badanie objęło Francję, Hiszpanię, Niemcy, Wielką Brytanię i Włochy, analizując trzy główne modele chmur: publiczną, prywatną i hybrydową.

    Największe korzyści dla handlu, finansów i sektora publicznego

    Największe korzyści z wdrożenia chmury obliczeniowej, szacowane na 233 mld euro, ma szansę odnieść branża dystrybucji, handlu detalicznego i hotelarstwa. Wynika to z możliwości szybszego uruchamiania działalności, rozwoju oraz redukcji kosztów. Aż 77% tej wartości ma zostać wygenerowane przez rozwiązania chmury prywatnej i hybrydowej. W Niemczech natomiast najsilniejszym sektorem pod względem korzyści z cloud computingu okazały się usługi bankowe, finansowe i biznesowe. W tych branżach odnotowano również ograniczenie wydatków kapitałowych na IT o 18,1 mld euro.

    Znaczący wzrost zatrudnienia, bo aż o 800 tys. nowych miejsc pracy, przewiduje się w sektorze rządowym, edukacji i służbie zdrowia. Jest to bezpośredni rezultat adaptacji technologii przetwarzania w chmurze.

    „Badanie ujawniło istotne korzyści ekonomiczne związane z wdrożeniem technologii cloud computing w wielu sektorach gospodarki. Handel detaliczny i hotelarstwo mogą uzyskać najwyższy zwrot z inwestycji, mimo zmniejszonej siły nabywczej i presji na obniżanie cen. Sektor bankowy i finansowy również odnotuje znaczne korzyści. Kluczowym czynnikiem stymulującym gospodarkę będzie tworzenie nowych miejsc pracy, a co ciekawe, najwięcej zyska ich sektor publiczny” – komentuje Oliver Hogan, ekonomista z Cebr.

    Chmura a efektywność i produktywność

    Sektor dystrybucji, handlu detalicznego i hotelarstwa ma szansę na największe oszczędności we wszystkich badanych branżach, sięgające 83,3 mld euro do 2015 roku. Rentowność w tych branżach będzie zależeć od wydajności, a cloud computing oferuje narzędzia do jej zwiększenia.

    Usługi bankowe, finansowe i biznesowe zajmują drugie miejsce pod względem potencjalnych korzyści, z możliwością wygenerowania ponad 183 mld euro do 2015 roku. Firmy z tego sektora w 76% przypadków wybiorą prywatne i hybrydowe modele chmury, ze względu na bezpieczeństwo i zgodność z regulacjami IT.

    W sektorze administracji państwowej, edukacji i służby zdrowia, oprócz wzrostu zatrudnienia, przewidywane są oszczędności netto na poziomie 14,5 mld euro.

    Branża produkcyjna może zyskać ponad pół miliona miejsc pracy do 2015 roku dzięki cloud computingowi. W Wielkiej Brytanii szacuje się potencjalny zysk na poziomie 11,4 mld euro, co może być znaczącym wsparciem dla tamtejszego sektora produkcyjnego. Wzrost produktywności przewidywany jest również dla małych i średnich firm.

    Sektor energetyczny i użyteczności publicznej może zyskać 14,1 mld euro na wdrożeniu chmury, szczególnie modeli prywatnych, ze względu na duże potrzeby związane z przetwarzaniem i przechowywaniem danych.

    Podsumowanie

    Raport Centre for Economics and Business Research pokazuje, że cloud computing to nie tylko trend technologiczny, ale realne narzędzie do stymulowania wzrostu gospodarczego i tworzenia nowych miejsc pracy. Adaptacja tej technologii w różnych sektorach gospodarki może przynieść znaczące korzyści finansowe, zwiększyć efektywność i produktywność, a także wpłynąć na rozwój rynku pracy.

    Źródło: Raport „Korzyści płynące z usług przetwarzania w chmurze w 2011 r.”, Centre for Economics and Business Research na zlecenie EMC.