Autor: BARTOSZ KOWALCZYK
Chief Entrepreneur, PragmaticAD
Rynek mar-tech rozwija się dzięki rosnącej popularności narzędzi wykorzystujących sztuczną inteligencję. Tym samym zwiększa się liczba źródeł danych, z których marketerzy muszą wyciągać wnioski. W tak dynamicznym i wymagającym środowisku online szybkie i efektywne podejmowanie decyzji jest nie lada wyzwaniem.
ROZWÓJ NARZĘDZI I MARKETING INTELLIGENCE
Według badania Forrester Consulting1 w Stanach Zjednoczonych 75% osób decyzyjnych w sprawach marketingu uważa, że marketing intelligence jest niezbędny do realizacji celów biznesowych. Jak wskazali respondenci korzystający z takich rozwiązań, poprawiają one znacznie lojalizację klientów i ROI z wydatków marketingowych. Szukając z kolei barier, wskazywali na brak adekwatnych narzędzi do obróbki i wizualizacji danych, słabą infrastrukturę do ich zbierania i brak odpowiedniej liczby wykwalifikowanych osób na rynku. Dane te wskazują na nieunikniony rozwój narzędzi marketing intelligence. Dzięki nim możliwe będzie skonsolidowanie wielu źródeł danych i wykorzystanie algorytmów uczenia maszynowego na dużych zbiorach danych. Pozwoli to w przystępny sposób wizualizować i podpowiadać najlepsze możliwe rozwiązania, bez udziału wykwalifikowanej kadry.
UNIFIKACJA I WIZUALIZACJA DANYCH
ALGORYTMY I HIPERPERSONALIZACJA
Budowanie siatki powiązań i stworze-nie matryc definiujących własnych klientów ma bezpośrednie przełożenie na badanie ścieżek konwersji, a dokładnie na ich największe wyzwanie, czyli cross-device. Na tę chwilę wyróżnia się dwa modele: deterministyczny i probabilistyczny, jednak ich wybór nie jest jednoznaczny. Model deterministyczny jest dokładniejszy i opiera się przede wszystkim na powiązaniu logowań danego użytkownika z poziomu różnych urządzeń. Wymaga on powiązania wielu źródeł danych, żeby zbudować skalę. Nawet jeśli użytkownik jest zalogowany na określonym urządzeniu, nie oznacza to jednak, że w danej chwili to właśnie on z niego korzysta. Na tym etapie wchodzą do gry algorytmy probabilistyczne. Muszą one, bazując na posiadanych danych, określić z jak największym prawdopodobieństwem, która z osób mających dostęp do urządzenia, korzysta z niego aktualnie. Dlatego z im większego zbioru danych można korzystać, tym lepiej. Analiza poszczególnych ścieżek konwersji wpisuje się w trend hiperpersonalizacji, gdzie predykcja zakupu mediów odbywa się na poziomie konkretnego użytkownika. Przykładowo – Netflix podaje, że zaoszczędził w 2017 roku 1 mld dol.2, korzystając z uczenia maszynowego przy personalizacji przekazu. Pokazuje to skalę, z jaką algorytmy uczenia maszynowego będą musiały być udoskonalane. To z kolei będzie wymagało wykwalifikowanej kadry. Człowiek, zakładając poszczególne cele, określa algorytmom, co jest dla niego ważne i w którym kierunku ma zmierzać optymalizacja procesów. System natomiast prezentuje gotowe raporty i wykresy. Wskazuje też obszary wymagające poprawy, których analityk nie jest w stanie dojrzeć przy obecnej liczbie przetwarzanych danych, więcej uwagi obszarom wymagającym ingerencji człowieka – tworzeniu strategii i kreowaniu rozwiązań.
PODSUMOWANIE
Narzędzia marketing intelligence będą rozbudowywane o funkcjonalności zastępujące narzędzia marketingowe. Prędzej czy później należy się spodziewać konsolidacji rynku narzędzi mar-tech, a idea wizualizacji wielu źródeł danych w jednym miejscu będzie sprzyjać temu zjawisku. Algorytmy uczenia maszynowego, które – dzięki przetwarzaniu dużej ilości danych będą bardziej efektywne – spowodują, że platformy marketing intelligence staną się podstawą pracy każdego marketera. Ten, mając wpływ na co raz więcej obszarów biznesowych, będzie pełnił coraz ważniejszą rolę w firmie. Sztuczna inteligencja to szansa na rozwój biznesu, a nie zagrożenie – ma odciążyć człowieka poprzez automatyzację prostych procesów, jak i tych zaawansowanych, których nie jest on w stanie przetworzyć lub zajmie mu to dużo czasu. Dlatego, opracowując rozwiązania systemowe, należy stworzyć przejrzysty i użyteczny panel, który – dzięki zaawansowanemu systemowi raportów – będzie pomagał marketerom odnajdywać się w gąszczu danych. W jego tle natomiast powinna odbywać się agregacja, segmentacja i wizualizacja oparta na algorytmach uczenia maszynowego.