Transformacja infrastruktury IT w banku

W ramach podcastu “Porozmawiajmy o IT” miałem okazję porozmawiać z Aleksandrem Gawrońskim z mBank S. A. o transformacji infrastruktury IT w banku.

Posłuchaj naszej rozmowy w wersji audio 🎧 👇

Cześć! Mój dzisiejszy gość to dyrektor departamentu infrastruktury informatycznej w mBank S.A., bankowiec z ponad 20-letnim doświadczeniem w takich specjalizacjach, jak zarządzanie infrastrukturą IT, transformacja technologiczna czy rozwój kanałów cyfrowych. Moim i Waszym gościem jest Aleksander Gawroński.

Cześć, Alku! Bardzo miło mi gościć Cię w podcaście.

Cześć! Dzień dobry, witam Ciebie, witam Wszystkich.

Dzisiaj z Alkiem będę rozmawiał o tym, z czym wiąże się i jak wygląda transformowanie i unowocześnianie infrastruktury IT w takiej instytucji, jaką jest bank.

Ale zanim do tego przejdziemy, to standardowo rozpocznę rozmowę od pytania, czy słuchasz podcastów. Jeśli tak, to może masz jakieś audycje, o których warto tutaj powiedzieć?

Tak, bardzo często słucham podcastów, to jest taka moja, jak ja to mówię, joggingowa przyjemność, tzn. kiedy sobie biegam, to zazwyczaj czegoś słucham. Może rozpocznę trochę nietypowo, teraz ze względu na sytuację geopolityczną, to trochę przestawiłem się na obserwację świata zewnętrznego, więc mogę tutaj powiedzieć, że teraz akurat dosyć często słucham podcastów albo YouTubów Strategy and Future albo Historia realna.

Ale wracając do naszej branży, to ja dużo czasu wolnego poświęcam bardziej hobbystycznie na tematy cyber security i tutaj mogę polecić Defense in Depth , to jest jeden bardzo fajny podcast, i taki hackerski bardziej: Darknet Diaries — to dosyć interesujące, też mogę polecić.

Z naszego rodzimego podwórka Niebezpieczniki też nagrywają trochę podcastów, a z takiej działki bardziej merytorycznej na pewno polecam Patoarchitektów, podcasty Łukasza Kałużnego, który też z nami dużo współpracuje. I Twój podcast wpada mi też w ucho, czasem wyszukując pewne tematy, kilka odsłuchałem, na pewno mogę polecić bardzo ciekawy odcinek o kulturze IT, bo akurat ten temat kiedyś mocniej zgłębiałem i natknąłem się na bardzo fajną rozmowę na Twoim kanale. Myślę, że tyle mogę polecić, żeby nie zanudzić słuchaczy.

Jednym słowem: sporo biegasz, skoro faktycznie udaje Ci się przesłuchiwać tyle podcastów. Dzięki za te rekomendacje.

Przechodząc już do naszej rozmowy, zawsze lubię myśleć o systemach bankowych jak o takim cały czas działającym organizmie, który nigdy nie śpi i działa 24/7 i praca nad takimi systemami to można powiedzieć, że nieco praca na otwartym sercu — nie da się po prostu tego wyłączyć, zrobić swojej roboty i włączyć wszystkiego ponownie.

I w duchu tego stwierdzenia chcę Cię zapytać, jak wobec tego dokonaliście tego typu dzieła pod względem infrastrukturalnym, łącząc BRE Bank, mBank i MultiBank jakiś czas temu?

Oczywiście, masz rację, tzn. praca w takiej instytucji jak bank to jest bardzo duże wyzwanie z perspektywy infrastruktury informatycznej, ponieważ musimy zapewnić maksymalnie dużą dostępność. Oczywiście robimy przerwy serwisowe w paru miejscach, pracujemy też nad tym, żeby maksymalnie je skracać, tak żeby nasi klienci nie odczuwali niedogodności związanych z niedostępnymi systemami, ale tak, to jest główne wyzwanie w tej naszej działce. Jeszcze biorąc pod uwagę, że nie jesteśmy jeszcze w chmurze (o czym będziemy zapewne za chwilę rozmawiać), to będąc w Data Center i na naszych standardowych rozwiązaniach i systemach, to czasem trzeba to wyłączać, żeby przełączyć, a z drugiej strony nie możemy sobie pozwolić tak jak inne branże na dłuższe przestoje.

Ale wracając do odpowiedzi na Twoje pytanie, to może samo połączenie marek to był bardzo długotrwały proces i on się składał z wielu etapów, to wiadomo, że klienci widzą pewien punkt w czasie, kiedy nas nastąpił ten rebranding marketingowy, zmiana logo itd., natomiast od strony systemów informatycznych to był bardzo długotrwały proces.

U nas akurat z perspektywy infrastruktury IT, on się zbiegł z innym bardzo dużym projektem, tzn. migracją Data Center. Na moim LinkedInie jest bardzo fajny, krótki film na ten temat, który nakręciliśmy, więc jak ktoś jest zainteresowany, to może sobie obejrzeć, ale może trochę parę słów o szczegółach.

My jako mBank z jednej strony jesteśmy młodą instytucją, ale z drugiej strony to już parę ładnych lat, nie jesteśmy jakimś start-upem, który ma rok, więc z perspektywy infrastruktury informatycznej trochę nam się już zebrało takiego legacy i sytuacja wyglądała tak, że mieliśmy rozrzuconą infrastrukturę po kilku Data Center, też tak mówiąc brutalnie, w tzw. oldschoolowym stylu, czyli w naszych siedzibach też była część serwerowni. I podjęliśmy decyzję i dosyć duży wysiłek, żeby pozbyć się takiej architektury od strony infrastrukturalnej i wylądowaliśmy w dwóch (jednych z najnowocześniejszych w Polsce) Data Center, gdzie mamy fajnych partnerów, kolokatorów, w których jesteśmy, i to było bardzo duże ćwiczenie, tzn. przenoszenie systemów, serwerów do tych nowych serwerowni.

I też może to, co jest ważne przy okazji łączenia brandów i w ogóle łączenia pewnych systemów, robienia infrastruktury w uproszczony i spójny sposób dla całego banku, to to, co często kojarzy się w naszej branży z taką migracją Data Center, polega na tym, że po prostu pakuje się serwery i przenosi z miejsca na miejsce. I my postanowiliśmy ten proces z jednej strony wykorzystać szansę i taki punkt w czasie, kiedy mamy atencję ludzi z IT i otoczenia, żeby też podnieść się technologicznie w paru miejscach.

Więc wdrażaliśmy parę rzeczy typu SDN-y, wspólne środowiska storage’owe, dużym celem był też projekt wirtualizacji, tzn. te maszyny, które były fizyczne, musiały zostać zwirtualizowane w procesie migracji, tzn. była specjalna bramka logiczna, żeby przewieźć blachę z miejsca na miejsce, trzeba było trochę się nagimnastykować i uzasadnić potrzebę posiadania własnego sprzętu, a nie przenoszenia się w kierunku wirtualizacji czy też chmury prywatnej.

I dzięki temu osiągnęliśmy bardzo duży uzysk, czyli z perspektywy dzisiejszego dnia z tej warstwy infrastrukturalnej jesteśmy jakby state of the art, top of the top, czyli mamy zabezpieczone wszystko, świetnie ogarnięte od strony zabezpieczenia, prąd i itp. A z drugiej strony udało się też nam podciągnąć technologicznie warstwy wyższe. I mamy bardzo dobry punkt wyjściowy do przygody chmurowej, ponieważ nie mamy takiej presji, że musimy iść do chmury, bo mamy jakieś stare Data Center i to nam nie działa, tylko możemy to robić bardziej w takim trybie przemyślanym i spokojnym.

Powiedziałeś, że wykorzystaliście tę migrację czy też transformację infrastruktury do tego, żeby ulepszyć pewne obszary, żeby zdecydować się na nowocześniejsze rozwiązania. Zastanawiam się, czy transformacja infrastruktury w takiej instytucji, jaką jest bank, to jest pomysł działów IT, które chcą ten, powiedziałbym, dług technologiczny czasami gdzieś zakopać, czy też może jest to decyzja i strategiczne podejście całej organizacji? Jakie jest Twoje zdanie na ten temat?

Odpowiem najpierw trochę humorystycznie, że z perspektywy infrastruktury IT nasza obecność wygląda tak, że jak coś nie działa, jest awaria, to wtedy wszyscy wiedzą, że jesteśmy, a jak wszystko działa, to wszyscy o nas zapominają. To jest trochę taka nasza proza życia i to trochę się łączy z Twoim pytaniem.

Odpowiedź jest trochę pośrodku. Powiem, jak to konkretnie u nas wygląda. Co do zasady wiadomo, że za tego typu projekty odpowiedzialność leży po stronie IT, bo po stronie biznesowej nie ma takiej wiedzy. Z perspektywy biznesu jeśli działa, to działa, i super. I to jest nasza odpowiedzialność, że ma działać. Wiadomo, że wybucha, jak jakieś tam koszty rosną, są jakieś awarie, wtedy z perspektywy ogólnozarządczej takie rzeczy widać. Ponieważ u nas takiego przykładu nie ma, więc my oczywiście sterujemy i kierujemy tego typu projektami.

Natomiast na pewno muszę oddać swojej organizacji, czyli mBankowi, że mamy bardzo duże wsparcie, zarówno naszych partnerów biznesowych, jak i ze strony zarządczej. I jest pełne zrozumienie naszych działań, więc nie czujemy się w żaden sposób ignorowani, wręcz przeciwnie. Czyli mamy pełne wsparcie, natomiast wiadomo, że my ten temat leadujemy i to jest nasza odpowiedzialność.

Czyli my wiemy, że to trzeba robić, za to mamy płacone, to jest nasza odpowiedzialność, żeby być bardzo nowoczesnym i żeby technologia umożliwiała robienie biznesów w jak najlepszy sposób, natomiast organizacja musi to wspierać.

I myśląc teoretycznie o innych organizacjach, gdzie IT nie ma wsparcia biznesu i ogólnozarządczego, to tam są problemy. U nas to zrozumienie jest, bo jesteśmy mocno digitalnym, technologicznym bankiem i uważamy się za pionierów i liderów w wielu obszarach technologicznych i nasz biznes bardzo dobrze to rozumie i nas w tym wspiera. W takim sensie, że jak my nie będziemy w tej technologii z przodu, to biznesowo też nie będziemy z przodu, więc to zrozumienie jest w naszej organizacji.

I myśląc teoretycznie o innych organizacjach, gdzie IT nie ma wsparcia biznesu i ogólnozarządczego, to tam są problemy. U nas to zrozumienie jest, bo jesteśmy mocno digitalnym, technologicznym bankiem i uważamy się za pionierów i liderów w wielu obszarach technologicznych i nasz biznes bardzo dobrze to rozumie i nas w tym wspiera. W takim sensie, że jak my nie będziemy w tej technologii z przodu, to biznesowo też nie będziemy z przodu, więc to zrozumienie jest w naszej organizacji.

A gdzie w tym mitycznym trójkącie: stakeholderzy, IT i użytkownicy jest wpływ użytkowników? Bo powiedziałeś, że stakeholderzey, rozumiani np. jako zarząd czy cała organizacja, wspiera taką migrację czy transformację. IT powinno być świadome tego, co robi, i powinno też wykorzystać tę okazję do usprawnień. A co dla użytkowników? Co dla klientów, dla pracowników banku? Czy taka migracja powinna być zupełnie transparentna, że logując się następnego dnia do banku, nie powinni zauważyć różnicy, czy też może właśnie również powinniśmy wykorzystać tak dużą operację, żeby maksymalnie dużo usprawnień zaserwować tej grupie?

Naszym założeniem była cicha niewidzialna migracja, czyli stealths, ponieważ ta migracja Data Center to nie był taki one shot, że zrobiliśmy to w jeden weekend. Było kilkanaście tur relokacyjnych, kiedy różnej jakości systemy w różnych konfiguracjach były migrowane z tych starych Data Center do nowego Data Center.

I założeniem tego było, żeby ani biznes, ani klienci zewnętrzni i wewnętrzni tego nie odczuli z perspektywy niedostępności. I to nam się udało, ponieważ nie mieliśmy żadnej awarii ani przestojów, było kilkanaście tur relokacyjnych, większość z nich była bezprzerwowa. Kilka było przerwowych w ramach okien serwisowych, ale tego jakby klienci nie widzieli. Naszym celem od strony IT jest dostarczać te usługi w sposób bezprzerwowy, niezauważalny dla klienta z perspektywy przerw czy też niedostępności systemu.

Natomiast z drugiej strony też, odpowiadając na to, co mówisz, staramy się maksymalnie robić pewne uzyski biznesowe, czyli jeżeli mamy okno serwisowe, to żeby pewne rzeczy poprawić i usprawnić. Mamy zaplanowane tyle, ile się da w danym oknie. Warto też pamiętać o tym, że z perspektywy w ogóle biznesu bankowego i w Polsce, i na świecie bardzo rośnie ruch transakcyjny.

To jest tak, że ilość przelewów, które wykonywaliśmy 10 lat temu, a to, co się dzieje teraz, że każdy klika, przez telefon wysyła sobie 2 zł, grosza, rozliczenia za lunche, cuda wianki, tzn. ta łatwość tego spowodowała, że to właśnie u nas, w infrastrukturze się kończy tym, że my musimy cały czas dostarczać większą pojemność naszych systemów, żeby to wszystko obsłużyć. Więc bardzo często tego typu ćwiczenia wykonujemy po to, żeby zwiększać capacity, po to, żeby nie stanęło kiedyś w miejscu albo żeby nie było zwolnień.

Więc może z perspektywy klienta to jest tak, że działało i działa, ale jak byśmy nie podejmowali tych działań, to by się tam kiedyś zamuliło, bo wszystkie systemy mają jakąś swoją wydajność i pewne ograniczenia, więc bardzo dużo uwagi przykładamy ku temu, żeby się tak nigdy nie stało, czyli żeby zawsze wszystko śmigało tak, jak trzeba.

A od strony technologicznej? Zastanawiam się, jak to się robi. Powiedziałeś, że to przenoszenie zajęło trochę czasu. Czy to się robi w ten sposób, że poszczególne usługi w kolejnym etapie się przenosi, czy też może stosuje się jakieś podejście typu A/B testing, np. pewnej grupie użytkowników serwuje się tylko nowe rozwiązanie? Jesteś w stanie coś tutaj zdradzić?

Z mojej perspektywy poruszasz trochę inne wątki, ponieważ tematy typu A/B testing i pewne rzeczy, które próbujemy robić od strony serwowania aplikacji i dostarczania rozwiązań, są już bardziej, powiedziałbym, po stronie deweloperskiej i dostarczania już aplikacji i rozwiązań. I to ma niewiele wspólnego już z tematami typu migracja infrastruktury czy dostarczanie infrastruktury, więc ja będąc w tej działce bardziej infrastrukturalnej, w tym wątku typu serwowanie do klientów różnych ficzerów czy testowanie rzeczy nie uczestniczę bezpośrednio. Naszą rolą jest dostarczenie wydajności, by można było to realizować i działać.

Natomiast odpowiadając na pytanie, jak wygląda ta migracja dużych systemów pomiędzy Data Centrami, to musi być to dobrze zaplanowane, żebyśmy pewne grupy systemów razem łączyli, przenosili, bo to są historyjki tego typu, że jak zostawisz bazę danych w serwerowni 300 km dalej, to już tematy typu latency mają wpływ na to, że to działa, rozpina się itd., a nasza infrastruktura jest oczywiście bardzo złożona i skomplikowana ze względu na to, że zapewniamy też wysokie HA, czyli dla wszystkich systemów ważnych, oczywiście krytycznych, kluczowych itd., mamy zawsze dwie nogi rozłożone i zbalansowanie, no przeróżne usługi. Więc przenoszenie tego tak w locie jest dosyć trudne.

Natomiast są tury fizyczne, czyli że system działa na jednej nodze, druga noga jest pakowana na specjalną ciężarówkę, serwery są owijane w folię bąbelkową i są tam przewożone autostradą. To nawet ciekawe, bo z perspektywy IT rzadko takie operacje są, a to jest nawet interesujące, jak śledzimy, gdzie te ciężarówki jeździły, czy już dojechały, jak to się rozpakowuje, wkłada. Czyli jedna noga chodzi, druga noga jest przewożona, odpalana, wstawiana jest druga noga, wtedy jadą po tą drugą nogę, która była, dowożą ją, rozstawiają w drugiej serwerowni, więc to nawet takich parę ćwiczeń logistycznych.

Wbrew pozorom jednak akurat ta część bardzo logistyczna jest taka bardzo wizualna i fajna i ponieważ logistyka jest dobrze zorganizowana, to nie mamy nigdy problemów w tym ćwiczeniu. Nigdy nie zgubiła nam się żadna ciężarówka. Mieliśmy specjalne wręcz konwoje, żeby minimalizować ryzyko takich rzeczy typu stłuczka czy wypadek. Za to większe wyzwanie od strony logicznej, takie że, jak jest złożona architektura, to przepinanie tematów i przede wszystkim jak ląduje dany system w nowym otoczeniu sieciowym, takie prozaiczne rzeczy jak podpięcie systemu, gdy okazuje się, że ktoś kiedyś, 100 lat temu zhardcodował jakiś adres IP, taka proza życia.

20 lat temu w mBanku pewne rzeczy powstawały bardziej start-upowo i tego typu grzechy przy takich operacjach właśnie wychodzą. I takie tematy trzeba rozwiązać w niedzielę o 2 w nocy w pół godziny czy w godzinę, bo inaczej się sypie harmonogram. Więc tego typu historyjek mamy do opowiedzenia dużo i są ciekawe, ale jak jest dobry plan, to to wychodzi i da się to zorganizować.

To faktycznie niesamowite przygody i tak jak mówisz, coś w tym jest, że jak działa, to lepiej nie dotykać, bo dopiero kiedy coś się zmieni, to wychodzi, że to, co powstało jako legacy i powstało w zupełnie innym otoczeniu technologicznym i działało, to lepiej tego nie ruszać.

Ale wróćmy do infrastruktury, bo to jest core naszej dzisiejszej rozmowy. Opowiadamy o infrastrukturze, to jest de facto złożony temat pod względem obszarów, bo możemy mówić o fizycznych serwerach, o sieciach, o wirtualnych serwerach, usługach sieciowych, jest tych komponentów całkiem sporo.

Czy to wszystko przenosi się w ten sam sposób, czy też może stosuje się zupełnie inne podejścia do różnych usług z tej infrastruktury?

Każdy z tych komponentów wygląda trochę inaczej. Trzeba to dobrze poskładać w logiczną całość, więc przy tego typu migracjach i przy przenoszeniu systemów trzeba to dobrze zaplanować i poruszać się warstwami, więc wiadomo, że tak jak w Data Center budujemy najpierw warstwę taką bardzo fizyczną, kioski, okablowanie… Chłopaki z Data Center się ze mnie śmieją, jak tak to nazywam, ale tamta cała kabelkomania, światłowody, corningi i tego typu historyjki trzeba dobrze ogarnąć, więc to musi iść na początku.

Potem największym wyzwaniem jest aspekt sieci, bo tutaj mamy dużo kwestii związanych z bezpieczeństwem, z zapewnieniem ciągłości działania, czyli wchodzą firewalle, load balancery, i ponieważ my akurat przy tej migracji staraliśmy się maksymalnie unowocześnić nasze otoczenie sieciowe, to było to największym wyzwaniem, bo to robiliśmy trochę od nowa, powiedzmy, w nowoczesny sposób, a z drugiej strony musieliśmy testować, czy systemy się odnajdą w tym otoczeniu.

Osobny wątek to stawianie całego tematu storage’owego, czyli macierze, przenoszenie danych, zorganizowanie tego w taki sposób, żeby dane były w nowym ośrodku i w starym, co szczególnie w wysoko transakcyjnych systemach, takich jak bankowe, to jest dosyć duże wyzwanie, żeby na żywym organizmie działać, nie możemy zgubić żadnej transakcji, to są takie wolumeny, że ręcznie nie da się usiąść i doklepać, więc to wszystko musi się zgadzać.

A to, co może wszyscy najbardziej kojarzą jako taką rzecz, to przenoszenie serwerów, skracając, to może są dwa główne przypadki. Najfajniej przenosi się zwirtualizowane serwery, bo mamy hosty w jednym miejscu, w drugim, wciska się play i tym światłowodem serwery przenoszą się do drugiego miejsca, tam się je odpala i gra muzyka. A z serwerami fizycznymi jest właśnie ta przygoda, co opowiadałem, ciężarówki itd.

Dlatego też celem tego ćwiczenia było, żeby maksymalnie tego, jak ja to mówię, szpeju się pozbyć. Bo my wcześniej byliśmy organizacją start-upową, był system, kupowała swoje serwery, tak się kiedyś robiło, a teraz jak już mamy o wiele większą atencję na ESG, na tematy prądowe i w ogóle, logiczne i bezpieczeństwa, to wirtualizacja i chmura prywatna to jest to, na co postawiliśmy.

I tu też mogę się pochwalić, że na całej tej operacji zużycie prądu spadło nam o połowę. Tylko dzięki temu, że przenieśliśmy się na nowszy sprzęt, bardziej wydajny jeżeli chodzi o energochłonność, a z drugiej strony przez to, że pozbyliśmy się bardzo dużej ilości sprzętu fizycznego i go zwirtualizowaliśmy. To był bardzo duży uzysk. I finansowy i ku chwale środowiska.

Każdy z tych komponentów wygląda trochę inaczej. Trzeba to dobrze poskładać w logiczną całość, więc przy tego typu migracjach i przy przenoszeniu systemów trzeba to dobrze zaplanować i poruszać się warstwami, więc wiadomo, że tak jak w Data Center budujemy najpierw warstwę taką bardzo fizyczną, kioski, okablowanie… Chłopaki z Data Center się ze mnie śmieją, jak tak to nazywam, ale tamta cała kabelkomania, światłowody, corningi i tego typu historyjki trzeba dobrze ogarnąć, więc to musi iść na początku.

👉 Czytaj dalej na: https://porozmawiajmyoit.pl/poit-172-transformacja-infrastruktury-it-w-banku/

--

--

Dev and life blog. Thoughts about programming, design patterns, Ruby and life.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Krzysztof Kempiński

Krzysztof Kempiński

655 Followers

IT expert. Ruby on Rails/iOS/Elixir programmer. Blogger. Podcaster.