Capgemini Poland https://www.capgemini.com/pl-pl/ Capgemini Fri, 11 Jul 2025 06:37:31 +0000 pl-PL hourly 1 https://wordpress.org/?v=6.8.1 https://www.capgemini.com/pl-pl/wp-content/uploads/sites/27/2021/07/cropped-favicon.png?w=32 Capgemini Poland https://www.capgemini.com/pl-pl/ 32 32 192805555 Unlocking the future of Project Management-as-a-Service through the power of Gen AI https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/unlocking-the-future-of-project-management-as-a-service-through-the-power-of-gen-ai/ Fri, 11 Jul 2025 06:37:04 +0000 https://www.capgemini.com/pl-pl/?p=911741&preview=true&preview_id=911741 This is the future of PMaaS: a fusion of technological innovation and expert collaboration, creating a trusted partnership that helps clients thrive in an ever-evolving business landscape.

The post Unlocking the future of Project Management-as-a-Service through the power of Gen AI appeared first on Capgemini Poland.

]]>

Unlocking the future of Project Management-as-a-Service through the power of Gen AI

Przemysław Struzik, Iwona Drążkiewicz, Bernadetta Siemianowska
Jun 26, 2025

Several global trends, particularly the rise in digital transformations, the growing importance of connected technologies, and the demographic shifts affecting the global workforce are likely to soon lead to a shortage of professionals in project management (PM), organizational change management (OCM), and Global Business Services (GBS).

In this context, the integration of connected technologies may provide a solution. One of the most promising developments is the emergence of Project Management as a Service (PMaaS) driven by Generative AI (Gen AI). This future-ready platform is poised to revolutionize reporting, resource management, portfolio and program management, and more, significantly reducing the workload of project managers by the end of 2030.

The Connected Enterprise and Gen AI

The concept of a Connected Enterprise revolves around the seamless integration of data, connectivity, and technology to drive business innovation, enhance efficiency, and foster growth. Gen AI, with its ability to generate human-like text, analyze vast amounts of data, and provide actionable insights, is at the forefront of this transformation.

By leveraging Gen AI, PMaaS platforms offer unprecedented levels of automation and intelligence, higher levels of predictive insights and strategic advice, while providing scalable solutions available 24/7 enabling organizations to streamline their project management processes. This results in better project outcomes, reduced risk, and significant cost savings for Capgemini’s clients.

Transforming reporting and analytics

Traditional project reporting is often a time-consuming and labor-intensive task. Gen AI automates the generation of reports by analyzing project data in real-time and presenting it in a clear, concise, and visually appealing format. For example:

  • Gen AI not only collects updates but also generates custom reports based on predefined criteria.
  • It creates tailored reports for different stakeholders (e.g. project managers, clients, or executives) by transforming raw data into insightful summaries, charts, or KPIs.
  • It also creates interactive dashboards that display real-time project data and updates in a visual and intuitive way.
  • Moreover, Gen AI automatically gathers and compiles project updates by integrating with tools such as task management platforms (e.g. Jira, Wrike, Smartsheet) and collaboration tools (e.g. Microsoft Teams). It extracts data on project progress, task completion rates, budget use and milestones without manual input from team members.

This saves time and ensures that stakeholders have access to up-to-date information, enabling better decision-making.

Enhancing resource management

The complexity of resource allocation will be reduced as Gen AI helps match the right skills to the right tasks (profiles matching %), considering availability (globally or regionally), business priorities, skills, and project demands (the scope of work of each project management task can be split between junior and senior resources).

Gen AI will enable dynamic adjustments to resource plans, further eliminating inefficiencies and ensuring optimal resource utilization across portfolios. Additionally, Gen AI provides insights into resource utilization patterns, helping organizations make informed decisions about hiring and training.

Streamlining portfolio and program management

Managing a portfolio of projects and programs requires a holistic view of all ongoing initiatives. Gen AI provides this by aggregating data from multiple projects and presenting it in a unified dashboard. This enables portfolio and project managers to monitor progress, identify risks, and make strategic adjustments in real-time. Furthermore, Gen AI simulates various scenarios to predict the impact of different decisions, enabling proactive management.

Reducing administrative burden and personalized knowledge management

One of the most significant benefits of Gen AI in PMaaS is the reduction in administrative tasks it delivers. For example:

  • Onboarding new program team members is simplified through personalized learning paths based on the role, experience, and learning style of the new team member.
  • AI-powered virtual assistants or chatbots can support new team members by answering frequently asked questions, specific tools, and workflows.
  • Analysis of new team members’ tasks and project assignments while proactively delivering relevant knowledge resources or updating to-do lists for any team member.
  • Meeting scheduling through its ability to automatically find suitable times, reminding participants about upcoming meetings and agenda points, while sending follow up emails with action points to help keep everyone on track.

This enables project managers to focus on more strategic activities, such as stakeholder engagement and risk management.

Predictive analytics for project outcomes

Gen AI predicts the likelihood of project success based on various factors such as team performance, project complexity, and external influences. Leveraging historical data, real-time project inputs and machine learning models to forecast project success, this technology can also recommend corrective actions if the project is off-track to achieve predicted outcomes.

The future of PMaaS

As we look towards the future, the integration of Gen AI in PMaaS platforms will continue to evolve. Advanced natural language processing capabilities will enable more intuitive interactions with project management tools, making them accessible to a broader range of users.

Additionally, the continuous learning capabilities of Gen AI will ensure that these platforms become increasingly accurate and efficient over time.

Conclusion

While concerns about accuracy and governance remain, advances in AI-driven risk mitigation strategies and tighter oversight will address these issues effectively. As a result, PMaaS platforms powered by Gen AI will drastically reduce the need for manual project management tasks, enabling organizations to scale project execution with unprecedented speed and efficiency. This enhances efficiency and enables project managers to focus on strategic activities that drive business growth. As connected technologies continue to advance, the Connected Enterprise will become a reality, powered by the intelligent capabilities of Gen AI.

PMaaS, driven by Generative AI, will be the cornerstone in realizing this vision. Leveraging AI’s capabilities, PMaaS seamlessly aligns portfolios, manages resources, and optimizes operations across departments and regions, echoing Capgemini’s approach of delivering continuous, digital, and sustainable business value. This future holds tremendous promise for the PMaaS model, making it indispensable to companies that aim to stay competitive in a rapidly evolving digital economy.

A Connected Enterprise ensures that every aspect of an organization—from operations to customer experience—operates in sync. Similarly, AI-enabled PMaaS will create more cohesive, transparent, and agile project environments driven by data-driven insight and predictive analysis. In this future state, organizations will no longer see project management as a support function but as an integrated service that drives growth, adaptability, and long-term sustainability. Just as Capgemini’s model emphasizes continuous value delivery, the future of PMaaS promises to be a key driver of the Connected Enterprise—bridging silos, fostering collaboration, and ensuring that business outcomes are consistently achieved.

At Capgemini, the future of PMaaS lies in harnessing the collective power of our specialized teams to deliver unparalleled value to our clients. This means our clients benefit from a holistic transformation experience—one that enhances data agility, drives sustainability, and ensures that every project not only meets but also exceeds expectations.

This is the future of PMaaS: a fusion of technological innovation and expert collaboration, creating a trusted partnership that helps clients thrive in an ever-evolving business landscape.

The post Unlocking the future of Project Management-as-a-Service through the power of Gen AI appeared first on Capgemini Poland.

]]>
911741
Rozwój w Capgemini – klucz do sukcesu organizacji https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/rozwoj-w-capgemini-klucz-do-sukcesu-organizacji/ Wed, 18 Jun 2025 07:46:10 +0000 https://www.capgemini.com/pl-pl/?p=911485 W Capgemini rozwój naszych zespołów to nie tylko element strategii HR, ale fundament długofalowego sukcesu organizacji.

The post Rozwój w Capgemini – klucz do sukcesu organizacji appeared first on Capgemini Poland.

]]>

Rozwój w Capgemini – klucz do sukcesu organizacji

Monika Poznańska
Jun 18, 2025

W Capgemini rozwój naszych zespołów to nie tylko element strategii HR, ale fundament długofalowego sukcesu organizacji.

Stawiamy na indywidualne podejście, dopasowanie kompetencji do roli oraz systematyczne wspieranie rozwoju zawodowego. Dzięki temu osoby zatrudnione nie tylko osiągają lepsze wyniki, ale również czują się zmotywowane i zaangażowane. Sprawdź, jak nasze działania wyglądają w praktyce.

1. Dopasowanie do roli – fundament efektywności

Proces rozwoju zaczyna się już na etapie rekrutacji. Kluczowe jest, aby kandydat_ka był_a odpowiednio dopasowany_a do stanowiska – zarówno pod względem kompetencji technicznych (hard skills), jak i cech osobowości, temperamentu oraz zainteresowań.

Perfect match oznacza:

  • zgodność profilu kandydata z wymaganiami roli,
  • większe zaangażowanie i satysfakcję z pracy,
  • mniejsze ryzyko wypalenia zawodowego,
  • lepszą współpracę w zespole i wyższą efektywność.

2. Indywidualna ścieżka rozwoju – inwestycja w potencjał

Po zatrudnieniu kluczowe jest zaprojektowanie indywidualnej ścieżki rozwoju, która odpowiada zarówno potrzebom danej osoby, jak i celom organizacji. Capgemini oferuje szeroki wachlarz możliwości rozwoju:

Dostępne narzędzia i inicjatywy:

  • programy szkoleniowe i certyfikacyjne,
  • mentoring i coaching,
  • udział w projektach międzynarodowych,
  • platformy e-learningowe i baza wiedzy.

Dzięki temu osoba pracująca może rozwijać się w wybranym kierunku, zdobywać nowe kompetencje i przygotowywać się do przyszłych awansów.

3. Poczucie sensu i motywacja – siła napędowa sukcesu

Rozwój zawodowy to nie tylko zdobywanie wiedzy, ale również budowanie poczucia sensu i przynależności. Osoba, która widzi, że firma inwestuje w jej rozwój, czuje się doceniona i zmotywowana.

Efekty wsparcia rozwojowego:

  • większe zaangażowanie w codzienne obowiązki,
  • wyższa jakość pracy,
  • lojalność wobec organizacji,
  • gotowość do podejmowania nowych wyzwań.

4. Strategia Zarządzania Wiedzą – przykład dotyczący projektu z zakresu świadczenia usług biznesowych:

W jednym z projektów realizowanych dla naszego klienta wdrożyliśmy kompleksową Strategię Zarządzania Wiedzą, która wspiera rozwój osób pracujących na każdym etapie:

  • Profesjonalny onboarding – ustrukturyzowany proces wdrożeniowy z tygodniowym planem szkoleń i końcowym assesmentem gotowości do pracy.
  • Okresowe testy wiedzy (quarterly knowledge tests) – dla pracowników i pracownic z dłuższym stażem, pozwalające monitorować poziom wiedzy procesowej.
  • Szkolenia uzupełniające – na podstawie wyników testów, mające na celu eliminację luk kompetencyjnych i zwiększenie efektywności.

5. Jakość usług i rozwój kompetencji – przykład dotyczący projektu z zakresu świadczenia usług biznesowych:

W ramach projektu funkcjonuje również inicjatywa Quality, której celem jest monitorowanie i doskonalenie jakości świadczonych usług:

Działania w ramach projektu Quality:

  • analiza wyników audytów i kontroli SOX,
  • identyfikacja obszarów wymagających poprawy,
  • inwestowanie w wiedzę i kompetencje zespołu.

Zasada jest prosta: im większa wiedza, tym bardziej zadowolony klient 😊

6. Ścieżki awansu i rozwój kariery

Dzięki systematycznemu wsparciu i rozwojowi kompetencji, pracujące u nas osoby mają realną możliwość awansu – zarówno w ramach projektu, jak i całej organizacji. Wiele osób rozpoczyna od stanowisk operacyjnych, a z czasem obejmuje role liderskie, eksperckie a nawet menedżerskie.

7. Rozwój jako wspólna korzyść

Capgemini oferuje szerokie możliwości rozwoju zawodowego, które są wspierane przez management i wpisane w kulturę organizacyjną. Inwestowanie w ludzi to inwestowanie w przyszłość firmy.

Korzyści dla obu stron:

  • osoba, jaką zatrudniamy zyskuje szanse na rozwój, motywację i satysfakcję,
  • firma wzbogaca się o osobę, która jest nie tylko specjalistą_tką, ale jest także zaangażowana, kompetentna i lojalna.

The post Rozwój w Capgemini – klucz do sukcesu organizacji appeared first on Capgemini Poland.

]]>
911485
Dostępność cyfrowa https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/dostepnosc-cyfrowa/ Fri, 30 May 2025 06:43:11 +0000 https://www.capgemini.com/pl-pl/?p=911011 Hasło „dostępność cyfrowa” (ang. digital accessibility) jest ostatnio odmieniane przez wszystkie przypadki za sprawą European Accessibility Act (EAA), czyli dyrektywy unijnej wchodzącej w życie 28 czerwca 2025 roku.

The post Dostępność cyfrowa appeared first on Capgemini Poland.

]]>

Dostępność cyfrowa
niezbędna dla niektórych, przydatna dla wszystkich

Daria Stolarska
May 30, 2025

Hasło „dostępność cyfrowa” (ang. digital accessibility) jest ostatnio odmieniane przez wszystkie przypadki za sprawą European Accessibility Act (EAA), czyli dyrektywy unijnej wchodzącej w życie 28 czerwca 2025 roku.

Wiele firm działających na terenie Unii Europejskiej zaczęło nagle obawiać się surowych kar finansowych za niedostosowanie swoich produktów i usług do potrzeb osób z niepełnosprawnościami. Ale czy w tym wszystkim chodzi o prawo i pieniądze?

Niepełnosprawność – kogo tak naprawdę dotyczy?

Definicje niepełnosprawności mogą się nieco różnić w zależności od kraju czy organizacji (Unia Europejska, ONZ), ale mają wspólny mianownik:

Niepełnosprawność to długotrwałe ograniczenie zdolności wykonywania codziennych czynności. Może być fizyczne, umysłowe, intelektualne lub sensoryczne[1].

Zwróćmy uwagę na słowo „długotrwałe”. Dlaczego nie „trwałe”? Czy ludzie z niepełnosprawnościami to wyłącznie np. osoby z ograniczoną sprawnością ruchową, osoby z niepełnosprawnością wzroku czy słuchu? Nie do końca. Pamiętajmy o tym, że wyzwania dotyczące dostępności, również tej cyfrowej, mogą dotyczyć… nas wszystkich. W każdym momencie możemy znaleźć się w sytuacji, gdzie nasza zdolność do wykonywania pewnych czynności będzie ograniczona, nawet krótkotrwale. Niekoniecznie musi być to niepełnosprawność w pełnym tego słowa znaczeniu.

Wyobraźmy sobie, że łamiemy rękę, którą obsługujemy myszkę komputerową. Musimy przełożyć ją do drugiej dłoni i nagle okazuje się, że podczas korzystania z internetu nie potrafimy „najechać” na ten maleńki symbol „x” zamykający irytującą nas reklamę.

Inna sytuacja: mamy chrypkę lub silny akcent, próbujemy porozumieć się przez telefon ze sztuczną inteligencją w funkcji obsługi klienta w naszym banku, ale ona nie potrafi rozpoznać wypowiadanych przez nas słów.

Kolejny przypadek: jedziemy komunikacją miejską i oglądamy na telefonie filmiki umieszczone na portalu społecznościowym przez naszych ulubionych influencerów. W tramwaju jest bardzo głośno, nie mamy przy sobie słuchawek, a nie chcemy, żeby wszyscy słyszeli dźwięki wydobywające się z naszego smartfona.

I jeszcze jeden: jesteśmy osobą starszą i chcemy sprawdzić promocje na stronie pobliskiego dyskontu spożywczego, ale jesteśmy atakowani przez mnóstwo migających reklam, a najnowsze oferty przewijają się w karuzeli, której nie da się zatrzymać, a my nie nadążamy z czytaniem drobnych literek z nazwami produktów.

Takie przykłady można mnożyć. Wynika z nich jasno, że jakaś forma niepełnosprawności czy wyzwania może czasowo lub sytuacyjnie dotyczyć nas wszystkich.

Technologie asystujące i ułatwienia dostępu

Co może nam w takich sytuacjach pomóc? Zacznijmy od urządzeń i oprogramowania:

  • joysticki – używane często przez osoby z ograniczoną motoryką, które mogą poruszać w jakimś zakresie dłonią lub palcami,
  •  tzw. mouth stick – czyli urządzenie, z którego korzystają osoby z ograniczoną lub brakującą sprawnością ruchu rąk, które nie mają możliwości obsługi joysticka. Za pomocą takiego „drążka” można korzystać z klawiatury albo obsługiwać smartfony i tablety.
  • klawiatury – pomocne, gdy np. rozładuje nam się myszka, ale niezbędne, kiedy nie widzimy,
  • przetwarzanie tekstu na mowę – wykorzystują je osoby z niepełnosprawnością mowy, które jednocześnie są w stanie wystukiwać tekst na klawiaturze,
  • przetwarzanie mowy na tekst – przydatne, kiedy rozmawiamy z asystentem Google, Cortaną czy Siri, dyktujemy notatki na smartfonie, czy obsługujemy urządznia cyfrowe, nie mogąc użyć do tego celu rąk,
  • czytniki ekranu – oprogramowanie (NVDA, Jaws czy VoiceOver dla komputerów oraz TalkBack i VoiceOver dla telefonów i tabletów) czytające treści widoczne na ekranach,
  • wyświetlacze i notatniki Braille’a – urządzenia przetwarzające tekst na alfabet Braille’a i na odwrót,
  • napisy i trankrypcje dla treści audio i wideo – dla osób Głuchych, ale też dla tych, którzy jadą wspomnianym wcześniej tramwajem i nie mogą oglądać filmików w wersji z dźwiękiem,
  • możliwość powiększania tekstu (nawet do 400%) na stronie internetowej – dla osób słabowidzących,
  • kombinacje powyższych metod.

A co my mamy z tym wspólnego?

Skoro osoby z niepełnosprawnościami mają do dyspozycji tak wiele pomocnych urządzeń i programów, to o co właściwie chodzi z tą dostępnością i co my, pracownicy IT, mamy z tym wspólnego?

Otóż… wiele! Żeby czytnik ekranu, opcja powiększania tekstu czy obsługiwanie z klawiatury mogły naprawdę na coś się przydać, wytwarzane przez nas oprogramowanie i strony internetowe muszą być odpowiednio przygotowane.

Wszystko zaczyna się na etapie rozmowy z klientem i zbierania wymagań przez osoby w rolach analityków biznesowych – już wtedy należy w projekcie zarezerwować czas potrzebny na wdrożenie dostępnych rozwiązań. Następnie trzeba odpowiednio zaprojektować interfejs użytkownika  – na przykład zadbać o odpowiedni kontrast kolorów, krój fontów i rozmiar przycisków. Później kluczową rolę odgrywają programiści, którzy na podstawie wytycznych i projektów piszą dostępny, czysty kod. Ramię w ramię z nimi pracują testerzy sprawdzający, czy oprogramowanie/strona internetowa wygląda i działa tak, jak powinny. Na koniec osoby, które będą umieszczać na stronach internetowych różne treści, powinny zostać przeszkolone z zasad dostępności tak, aby umiały poprawnie dodawać teksty alternatywne do obrazów, używać nagłówków, tworzyć prawidłowe odnośniki, dodawać napisy do filmów.

Jak widać, jest to skomplikowany i dość kosztowny proces, a więc…

Czy warto inwestować w dostępność cyfrową?

5x TAK!

  • Po pierwsze, wypełniając obowiązek nakładany przez nowe, unijne prawo, firmy unikną ryzyka wysokich kar i długich, kosztownych procesów sądowych.
  • Po drugie, firmy, które dzięki dostępności zwiększą swoją przewagę nad konkurencją, w osobach z niepełnosprawnością znajdą nowych użytkowników i klientów, co przełoży się na lepsze wyniki finansowe.
  • Po trzecie, firmy, których produkty i usługi będą dostępne cyfrowo, będą postrzegane jako odpowiedzialne społecznie, co może przyciągać nowych klientów i partnerów biznesowych.
  • Po czwarte, wiele zasad dostępności cyfrowej, takich jak czytelne fonty, odpowiedni kontrast kolorów czy intuicyjna nawigacja, poprawia ogólną użyteczność stron internetowych i aplikacji dla wszystkich użytkowników, co sprawia, że klienci spędzą więcej czasu na stronie czy w aplikacji firmy i nie uciekną do konkurencji.
  • Po piąte i najważniejsze – w dostępności chodzi o ludzi! Prawo czy wytyczne organizacji standaryzujących są tylko środkami do osiągnięcia celu, jakim jest umożliwienie osobom z niepełnosprawnościami dostępu do produktów i usług na równi z innymi. Inwestując w dostępność cyfrową, firmy pokazują, że dbają o wszystkich swoich klientów, niezależnie od ich możliwości. To buduje pozytywny wizerunek marki, zwiększa lojalność klientów i przyczynia się do tworzenia bardziej inkluzywnego społeczeństwa.

Podsumowując, inwestowanie w dostępność cyfrową to nie tylko obowiązek prawny, ale także strategiczna decyzja biznesowa, która przynosi korzyści zarówno firmom, jak i społeczeństwu.


[1] Żródło: Convention on the Rights of Persons with Disabilities | OHCHR

The post Dostępność cyfrowa appeared first on Capgemini Poland.

]]>
911011
Career MVP – czyli jak zdefiniować swoją wartość zawodową https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/career-mvp-czyli-jak-zdefiniowac-swoja-wartosc-zawodowa/ Tue, 20 May 2025 11:02:20 +0000 https://www.capgemini.com/pl-pl/?p=910724 Niezależnie od tego, czy planujesz awans, myślisz o zmianie pracy, czy po prostu chcesz świadomie kierować swoją karierą - warto zacząć od określenia swojego Career MVP.

The post Career MVP – czyli jak zdefiniować swoją wartość zawodową appeared first on Capgemini Poland.

]]>

Career MVP – czyli jak zdefiniować swoją wartość zawodową

Joanna Solarska
May 20, 2025

W świecie pełnym dynamicznych zmian, transformacji cyfrowej i ciągłego rozwoju technologii, niezmienna pozostaje potrzeba, by jasno komunikować swoją wartość zawodową.

Niezależnie od tego, czy planujesz awans, myślisz o zmianie pracy, czy po prostu chcesz świadomie kierować swoją karierą – warto zacząć od określenia swojego Career MVP.

Czym jest Career MVP?

MVP to skrót od Minimum Viable Product, pojęcie z metodologii zwinnej (Agile), które oznacza „produkt minimalnie opłacalny”. W kontekście kariery możemy określić swój Minimum Viable Profile: najbardziej podstawowej, ale wartościowej wersji Twojej profesjonalnej tożsamości. To konkretna odpowiedź na pytanie: co już teraz mogę zaoferować jako specjalist_ka?

Career MVP nie musi być pełnym CV. To zestaw kluczowych kompetencji, doświadczeń i wartości, które stanowią Twój rdzeń zawodowy.

Jak stworzyć swój Career MVP?

Zacznij od autorefleksji. Zadaj sobie trzy pytania:

  • Jakie problemy potrafię rozwiązywać?
  • Co wyróżnia mnie spośród innych specjalistów lub specjalistek w mojej dziedzinie?
  • Jakie wartości i rezultaty dostarczam zespołom lub organizacjom?

Możesz też zebrać feedback od osób, z jakimi współpracujesz lub przyjrzeć się projektom, z których jesteś dumny_a. Szukaj powtarzających się motywów i tego, co przynosiło realną wartość.

Dlaczego warto?

Jasna komunikacja – Career MVP pomaga precyzyjnie opisać siebie na LinkedIn, w rozmowie o pracę czy podczas prezentacji własnych osiągnięć.
Lepsze decyzje zawodowe – świadomość swojej wartości pozwala szybciej ocenić, czy dana rola lub projekt pasuje do Twojego kierunku.
Punkty odniesienia dla dalszego rozwoju – MVP to fundament, od którego możesz budować kolejne kroki – backlog kariery, roadmapę, personal branding.

Career MVP w praktyce

Przykład:
„Jako analityczka biznesowa specjalizuję się w usprawnianiu procesów IT. Potrafię przekładać wymagania biznesowe na konkretne rozwiązania techniczne, współpracując z zespołami interdyscyplinarnymi.”

Zwięźle, konkretnie, z naciskiem na wartość i unikalność.

Twój Career MVP to kompas zawodowy – dzięki niemu łatwiej podejmiesz świadome decyzje, zbudujesz silniejszy profil ekspercki i szybciej zauważysz, co Cię naprawdę wyróżnia. Nie czekaj na kolejny przegląd roczny w pracy – stwórz swój Career MVP.

Chcesz dowiedzieć się więcej lub stworzyć swoje własne Career MVP? Zajrzyj na warsztaty „Navigating Career Success: Agile and Business Analysis Techniques for Future-Proofing”, które odbędą się w ramach konferencji Perspektywy Women in Tech Summit 2025 już 5.06, o godzinie 15:00.

The post Career MVP – czyli jak zdefiniować swoją wartość zawodową appeared first on Capgemini Poland.

]]>
910724
Budowanie relacji w pracy bez cringe’u https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/budowanie-relacji-w-pracy-bez-cringeu/ Thu, 24 Apr 2025 06:06:16 +0000 https://www.capgemini.com/pl-pl/?p=910397 Praca to coś więcej niż narzucone spotkania i terminy. To również ludzie, z którymi spędzasz codziennie czas - bo, bądźmy szczerzy, zgrany zespół sprawia, że nawet najtrudniejszy dzień staje się do zniesienia. Ale jak nawiązać szczere relacje, nie wypadając przy tym sztucznie ani nie kreując wizerunku osoby, która przy ekspresie do kawy wyjawia zbyt wiele?

The post Budowanie relacji w pracy bez cringe’u appeared first on Capgemini Poland.

]]>

Budowanie relacji w pracy bez cringe’u

Adrian Bartosik
Apr 24, 2025
capgemini-engineering

Praca to coś więcej niż narzucone spotkania i terminy. To również ludzie, z którymi spędzasz codziennie czas – bo, bądźmy szczerzy, zgrany zespół sprawia, że nawet najtrudniejszy dzień staje się do zniesienia. Ale jak nawiązać szczere relacje, nie wypadając przy tym sztucznie ani nie kreując wizerunku osoby, która przy ekspresie do kawy wyjawia zbyt wiele?

1.  Bądź po prostu “spoko” (Zaskakująco Proste)

Nikt nie lubi w pracy robotów. Po prostu bądź uprzejmy. Powiedz „cześć”, przytrzymaj drzwi, zapytaj „Jak minął weekend?”, nie oczekując pełnej biografii. Małe gesty budują zaufanie na dłuższą metę.

2.  Opanuj Small Talk (albo udawaj, że umiesz w pogaduszki)

 Nie każdy jest mistrzem luźnych pogawędek (pozdrawiamy introwertyków). Ale nie musisz być duszą towarzystwa, żeby pogadać. Bezpieczne tematy to:

  • Plany na weekend (ale bez wchodzenia w szczegóły)
  • Seriale (każdy coś ogląda)
  • Pogoda (tak, to banał, ale działa)
  • Biurowe przekąski („Kto zjadł moje ciastka?” to świetny punkt zaczepienia)

Unikaj: polityki, rozmów o zarobkach i osobistych problemach (zostaw to na spotkania po pracy).

3.  Znajdź wspólny język (bez dziwnych manewrów)

Nie musisz zaprzyjaźniać się z każdym, ale wspólne zainteresowania pomagają. Może oboje uwielbiacie psy, nie akceptujecie ananasa na pizzy albo podziwiacie biurowe kwiaty, które jeszcze nie uschły.

Pro tip: Jeśli usłyszysz, że ktoś lubi coś, co ty też lubisz, delikatnie nawiąż do tego przy następnej rozmowie. „Słyszałem, że lubisz wędrówki – masz jakieś fajne szlaki do polecenia?” = gotowa nić porozumienia.

4.  Pomagaj, ale bez oczekiwań

Chcesz budować dobre relacje? Bądź osobą, na której można polegać. Pomóż, jeśli masz taką możliwość – czy to zastępując kogoś na spotkaniu, czy dzieląc się trikiem w Excelu, który oszczędzi godziny pracy. Ale uważaj, żeby nie stać się „biurowym kozłem ofiarnym”😉 jest różnica między pomocą a wykorzystywaniem.

5.  Wykorzystaj “magię jedzenia”

Chcesz zyskać sympatię w pracy? Przynieś jedzenie. Serio. Paka pączków czy domowe wypieki potrafią zdziałać cuda. Jedzenie łączy ludzi, wywołuje rozmowy i sprawia, że stajesz się ulubionym współpracownikiem. Nie potrafisz piec? Sklepowe też się liczy.

6.  Daj relacjom czas

Najlepsze przyjaźnie w pracy rodzą się naturalnie. Nie każdy będzie Twoją bratnią duszą i to jest OK. Daj sobie czas, bądź otwarty na rozmowy i w końcu znajdziesz swoją ekipę.

Podsumowanie: praca jest lepsza z fajnymi ludźmi

Budowanie relacji w pracy to nie rywalizacja na bycie najgłośniejszym czy na siłę zawieranie przyjaźni. Chodzi o to, żeby być otwartym, pomocnym i… trochę bardziej ludzkim. Zacznij od drobiazgów, bądź uprzejmy i może przynieś jakieś ciastka. Nigdy nie wiesz, kto okaże się twoim nowym biurowym kumplem lub kumpelą.

The post Budowanie relacji w pracy bez cringe’u appeared first on Capgemini Poland.

]]>
910397
Jak skutecznie wykorzystać AI w roli liderskiej? https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/jak-skutecznie-wykorzystac-ai-w-roli-liderskiej/ Mon, 07 Apr 2025 10:26:45 +0000 https://www.capgemini.com/pl-pl/?p=910255 The post Jak skutecznie wykorzystać AI w roli liderskiej? appeared first on Capgemini Poland.

]]>

Jak skutecznie wykorzystać AI w roli liderskiej?

Weronika Żychlińska
Apr 7, 2025

5 kluczowych wskazówek dla współczesnych menedżerów i menedżerek

Sztuczna inteligencja (AI) to jedno z najważniejszych narzędzi we współczesnym zarządzaniu. Wspiera podejmowanie decyzji, optymalizuje procesy i personalizuje rozwój osób pracujących w danej organizacji. Jednak AI nie zastąpi osoby zarządzającej zespołem – jej skuteczność zależy od umiejętnego połączenia technologii z ludzkimi kompetencjami, takimi jak empatia, strategiczne myślenie i budowanie relacji. Co więcej, jej zastosowanie wymaga odpowiedzialności i etycznego podejścia, które pozwoli uniknąć uprzedzeń algorytmicznych i zapewni przejrzystość działania.

Oto pięć praktycznych wskazówek, jak efektywnie i odpowiedzialnie wykorzystać AI w zarządzaniu zespołem.

1. Korzystaj z AI w analizie danych, ale zachowaj ludzki kontekst

AI potrafi błyskawicznie analizować ogromne ilości informacji, identyfikować trendy i rekomendować działania. Narzędzia, takie jak predictive analytics, pozwalają przewidywać zmiany rynkowe czy potrzeby klientów.

Ostateczna interpretacja danych i podejmowanie kluczowych decyzji pozostają jednak w gestii lidera lub liderki. Model „human-in-the-loop” pozwala łączyć zaawansowaną analitykę AI z doświadczeniem i intuicją człowieka, co prowadzi do trafniejszych decyzji biznesowych. Ważne jest również uwzględnienie aspektów etycznych, takich jak unikanie błędów algorytmicznych czy transparentność wykorzystywanych modeli.

2. Wzmacniaj inteligencję emocjonalną w erze AI

AI może monitorować nastroje pracowników i pracownic na podstawie ankiet czy analizy języka, ale nie zastąpi umiejętności budowania zaufania i autentycznych relacji.

Dziś wykorzystywanie AI jako wsparcia w diagnozowaniu atmosfery w zespole jest rozwiązaniem, z którego warto korzystać, ale kluczową rolę nadal powinna odgrywać empatia. Regularna komunikacja, feedback i otwartość na potrzeby drugiego człowieka pomagają tworzyć zaangażowaną i zmotywowaną kulturę organizacyjną. Jednocześnie niezbędne jest etyczne wykorzystanie danych – zbieranie informacji o nastrojach osób z zespołu powinno odbywać się za ich zgodą i z pełną transparentnością.

3. Personalizuj rozwój osób ze swojego zespołu, ale pamiętaj o inspiracji

Systemy AI, takie jak platformy LMS (Learning Management System), dostosowują ścieżki edukacyjne do indywidualnych potrzeb pracowników czy pracownic. Dzięki nim rozwój staje się bardziej efektywny i dopasowany do umiejętności danej osoby.

Technologia nie zastąpi jednak roli, jaką w zespole pełni lider bądź liderka – taka osoba powinna inspirować, zachęcać do nauki, pokazywać wartościowy kontekst biznesowy i wspierać rozwój kompetencji przyszłości. Ponadto osoby pełniące role liderskie powinny pamiętać o tym, by dobierane przez nich narzędzia edukacyjne nie wykorzystywały stronniczych algorytmów i zapewniały równe szanse wszystkim osobom z zespołu.

4. Automatyzuj rutynowe zadania, by skupić się na strategii

Automatyzacja procesów administracyjnych, raportowania czy obsługi klienta pozwala menedżerom i menedżerkom koncentrować się na kluczowych aspektach zarządzania – innowacjach, strategii i rozwoju organizacji.

Warto wdrażać AI w obszarach, które pozwalają na oszczędność czasu i eliminację powtarzalnych obowiązków. Dzięki temu osoby w rolach liderskich mogą skupić się na kreatywnym myśleniu i budowaniu długofalowej strategii. Jednocześnie powinny monitorować wpływ automatyzacji na osoby w zespole – aby eliminować niepotrzebny stres i obawy o utratę miejsca pracy, kluczowe jest zapewnienie transparentności i odpowiedzialnej komunikacji zmian.

5. Promuj odpowiedzialne wykorzystanie AI

Zaufanie do AI w organizacji zależy od transparentności jej stosowania. Liderzy i liderki powinni jasno komunikować, w jaki sposób AI wspiera ich zespoły, jakie są jej możliwości oraz gdzie leżą jej ograniczenia.

Edukacja na temat etyki AI, unikanie uprzedzeń algorytmicznych oraz odpowiedzialne zarządzanie danymi są kluczowe dla budowania zaufania do technologii i jej skutecznej implementacji w firmie. Warto także śledzić regulacje dotyczące AI oraz przestrzegać zasad dotyczących ochrony danych osobowych i prywatności.

Podsumowanie

AI to potężne narzędzie, ale to człowiek pozostaje w centrum zarządzania. Dziś osoby na stanowiskach liderskich muszą w umiejętny sposób łączyć nowoczesne technologie ze zdolnościami interpersonalnymi, tworząc dynamiczne, efektywne i zintegrowane zespoły.

Wdrażając AI w zarządzaniu, warto więc pamiętać o równowadze – technologia powinna wspierać, a nie zastępować kluczowe kompetencje liderskie. Etyczne podejście do sztucznej inteligencji, transparentność jej stosowania oraz odpowiedzialność liderów i liderek w jej implementacji stanowią fundament sukcesu w erze cyfrowej transformacji.

The post Jak skutecznie wykorzystać AI w roli liderskiej? appeared first on Capgemini Poland.

]]>
910255
Inteligentne transformacje biznesowe okiem praktyków https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/inteligentne-transformacje-biznesowe-okiem-praktykow/ Mon, 17 Mar 2025 09:50:34 +0000 https://www.capgemini.com/pl-pl/?p=909394 The post Inteligentne transformacje biznesowe okiem praktyków appeared first on Capgemini Poland.

]]>

Inteligentne transformacje biznesowe okiem praktyków

Stewart Hicks
Mar 17, 2025

Wdrażanie transformacji biznesowych opartych na sztucznej inteligencji (AI), a ostatnio napędzanych entuzjazmem wokół generatywnej AI (Gen AI), staje się coraz popularniejszym kierunkiem firm.

Według raportu Capgemini “Generatywne usługi biznesowe oparte na sztucznej inteligencji: Przyszłość globalnych usług biznesowych (GBS)” przeprowadzonego we współpracy z HFS Research, ponad 80% respondentów uważa, że nadszedł czas, aby przekształcić Global Business Services w Generative Business Services – lepiej zdefiniowane jako usługi oparte na AI i danych, ukierunkowane na wzrost oraz innowacje w przedsiębiorstwach. Warto jednak pamiętać, że skuteczna transformacja biznesowa, przynosząca wymierne rezultaty, wymaga kompleksowego podejścia, czyli wdrażania odpowiednich platform technologicznych wraz z transformacją modelu operacyjnego i procesów – a niekoniecznie samej AI. Klucz do jej efektywności stanowią dogłębna diagnoza potrzeb firmy, strategiczne podejście oraz indywidualnie dopasowane, branżowo specyficzne rozwiązania, które łącznie przekształcają modele operacyjne, procesy, technologię i ludzi.

W transformacjach biznesowych obserwujemy duże skoncentrowanie na najnowszych rozwiązaniach technologicznych, jednak podstawowe zasady pozostają niezmienne. Klient – czyli końcowy odbiorca produktów lub usług – musi zawsze znajdować się w centrum projektowania. Jeśli zapomnimy o identyfikacji jego potrzeb i ich rozwiązaniu, transformacja najprawdopodobniej nie zakończy się sukcesem.

Coraz popularniejszą i skuteczniejszą metodą budowania strategii transformacji jest model oparty na rezultatach (Outcomes Based Model), który koncentruje się przede wszystkim na wpływie programu transformacyjnego na biznes, a nie jedynie na typowych miernikach wydajności procesów czy modelach cenowych opartych na stałych lub zmiennych opłatach. Inicjatywy transformacyjne oraz świadczone usługi są dostosowane do osiąganych rezultatów biznesowych, takich jak poprawa kapitału obrotowego poprzez redukcję zaległych należności czy zwiększenie przychodów dzięki wykrywaniu, zapobieganiu i odzyskiwaniu utraconych przychodów. Obserwujemy przypadki, w których zastosowanie takich modeli prowadzi do znaczącej poprawy przepływów pieniężnych, a osiągane rezultaty sięgają milionów euro na korzyść naszych klientów.

Takie podejście znacząco zwiększa skuteczność transformacji biznesowej i wykracza poza tradycyjne priorytety, skupione na produktywności czy arbitrażu kosztów pracy. Dzięki temu znacznie łatwiej jest przyciągnąć uwagę kadry zarządzającej na poziomie C-level, która zazwyczaj podejmuje decyzje i odpowiada za zakup usług transformacyjnych.

Pracujemy w tym modelu, bo jesteśmy pewni, że dobrze zaplanowana transformacja przynosi oczekiwane rezultaty. Żeby to osiągnąć, musimy dobrze rozumieć naszych klientów – ich potrzeby i specyfikę działania. Dzięki temu możemy tworzyć dopasowane, branżowe rozwiązania oraz skutecznie prowadzić ich przez proces zmian. Opieramy się na szczegółowej analizie danych, która pozwala podejmować trafne decyzje. Do tego stosujemy model rozliczeniowy oparty na osiąganych rezultatach, co motywuje zarówno klientów, jak i Capgemini. To właśnie sprawia, że taka współpraca jest korzystna dla obu stron.

W kontekście strategicznej transformacji biznesowej kluczową rolę często odgrywają organizacje znane jako GBS (Global Business Services) lub BPO (dostawcy usług procesów biznesowych – Business Process Outsourcing). Sektor ten jest silnie reprezentowany w Polsce oraz w innych krajach regionu, takich jak Rumunia, głównie dzięki dostępności wysoko wykwalifikowanych specjalistów i specjalistek, eksperckiej wiedzy oraz wciąż stosunkowo niskim kosztom pracy w porównaniu do innych państw. Choć tradycyjne funkcje i korzyści płynące z GBS/BPO pozostają istotne, rośnie potrzeba zdefiniowania ich roli na nowo, aby lepiej trafiać do liderów biznesu, którzy oczekują więcej niż tylko cięcia kosztów.

Capgemini to już nie tylko tradycyjny dostawca usług transakcyjnych, ale organizacja, która koordynuje ekosystem nowych umiejętności, technologii i kompetencji dla swoich klientów. Dzięki temu nie ogranicza się do wsparcia operacyjnego, lecz aktywnie napędza realizację strategicznych celów nowoczesnych przedsiębiorstw. Capgemini coraz szerzej obejmuje odpowiedzialność za transformację biznesową swoich klientów, rozszerzając działalność na kolejne linie biznesowe i obszary funkcjonalne. Dzięki temu wpływa na ich wyniki finansowe zarówno w zakresie przychodów, jak i zysków.

Siła prostoty

W dzisiejszym świecie technologia rozwija się w zawrotnym tempie, a firmy nieustannie mierzą się z zalewem innowacyjnych rozwiązań, które mogą usprawnić ich działalność. Jednak tak szybkie tempo zmian często utrudnia pełne przystosowanie się do nowości, przez co technologie nie są wykorzystywane w maksymalnym stopniu, a ich wpływ na biznes pozostaje ograniczony. Wiele organizacji wdraża jedynie fragmentaryczne rozwiązania i nie w pełni korzysta z możliwości dostępnych technologii, co znacząco obniża ich efektywność i zwrot z inwestycji.

Technologia powinna być wykorzystywana w pełni, aby jak największa część organizacji mogła czerpać korzyści z wdrożonych rozwiązań. Takie podejście nie tylko zwiększa efektywność, ale także pozwala optymalizować koszty – innymi słowy, nasi klienci mogą w pełni wykorzystać to, za co płacą. Firmy powinny również wybierać platformy technologiczne, które odpowiadają na różnorodne potrzeby, zamiast polegać na wielu rozproszonych narzędziach. Kluczowe jest pełne i właściwe wdrożenie, a nie gromadzenie kolejnych rozwiązań.

Rozwój firmy opiera się na kompetencjach zespołu

Kluczem do udanej transformacji biznesowej – obok dobrego planowania strategicznego – jest skuteczne zarządzanie zmianą i komunikacja. Zmiana przynosi efekty tylko wtedy, gdy pracownicy ją rozumieją, są do niej przekonani, a najlepiej, gdy mają możliwość współtworzenia jej.

Transformacja biznesowa to także rozwój kompetencji pracowników i pracownic. Od samego początku warto jasno komunikować im, jaką rolę odegrają zarówno w trakcie zmian, jak i po ich wdrożeniu. Równolegle z modyfikacją procesów biznesowych kluczowe jest zaplanowanie i przeprowadzenie solidnych szkoleń oraz wyposażenie zespołów w odpowiednie narzędzia i zasoby. Dzięki temu codzienna działalność firmy pozostaje niezakłócona, a osoby zatrudnione mogą w pełni wykorzystać swój potencjał.

W Capgemini koncentrujemy się na rozwoju naszych zespołów w obszarze generatywnej AI oraz certyfikacji branżowych. Zatrudniane przez nas osoby mają możliwość, a często także obowiązek, zdobywania kluczowych certyfikatów w tych dziedzinach. Dzięki temu jesteśmy na bieżąco z trendami i zmianami rynkowymi oraz możemy wdrażać dopasowane, optymalne rozwiązania dla naszych klientów. Tylko w ten sposób możemy być dla nich niezawodnym partnerem.

Jednym z najskuteczniejszych sposobów wdrażania zmian jest podejście pilotażowe. Pozwala ono przetestować rozwiązanie w wybranym, czasem odizolowanym obszarze przed jego szerokim wdrożeniem. Metoda ta sprawdza się szczególnie w dużych firmach o zasięgu regionalnym i globalnym. Wybór obszaru pilotażu może być dokonany na poziomie geograficznym – na przykład w konkretnym kraju lub mieście, według linii biznesowych czy funkcji, w których pracownicy są najlepiej przygotowani i chętni do udziału w procesie zmiany. Sukces na mniejszą skalę minimalizuje ryzyko, a pozytywne wyniki pomagają przekonać sceptyków przed wdrożeniem zmian w całej organizacji.

Zmierzch starych technologii

Nawet najlepiej zaplanowane zmiany wymagają czasu. W przypadku dużych platform, takich jak S/4HANA, cały proces może trwać nawet kilka lat. Osoby zarządzające i ich zespoły muszą być przygotowane na okres, w którym będą funkcjonować w dwóch równoległych środowiskach. Jest to niezbędne dla zachowania ciągłości operacyjnej. Warto jednak podejść do tego kompleksowo – dobrze przemyślana transformacja, oparta na jasno określonych celach biznesowych, przynosi długoterminowe i mierzalne korzyści.

Author:

Stewart Hicks

GBS Global Offer Leader, Capgemini Poland
Stewart pomaga klientom w ocenie, projektowaniu, transformacji i wdrażaniu nowoczesnych modeli operacyjnych GBS. Jest entuzjastą GBS, pasjonuje się modelami operacyjnymi GBS i chętnie wspiera firmy w maksymalnym wykorzystaniu ich potencjału. Stewart pełnił role liderskie w obszarach takich jak consulting, GBS and outsourcing operations, sales management, project and change management oraz process excellence. Wspierał klientów w projektach związanych z obszarem usług wspólnych, outsourcingiem i transformacjami GBS, wykorzystując różne technologie w różnych branżach.

Wojciech Mróz

Strategy & Transformation Director, Capgemini Poland
Wojciech to doświadczony lider z szeroką wiedzą w zakresie realizacji usług oraz transformacji procesów w sektorze BPO/SSC. Aktywnie uczestniczy w rozwoju oferty Generative Business Services (GBS). Pełnił różne role w ramach obszarów takich jak: GBS transformation, F&A transformation oraz Business development. Jako ekspert w dziedzinie automatyzacji pomagał klientom na całym świecie tworzyć strategie i realizować programy automatyzacji procesów.

    The post Inteligentne transformacje biznesowe okiem praktyków appeared first on Capgemini Poland.

    ]]>
    909394
    Gen AI a procesy Intercompany https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/gen-ai-a-procesy-intercompany/ Wed, 12 Mar 2025 05:08:51 +0000 https://www.capgemini.com/pl-pl/?p=909021 The post Gen AI a procesy Intercompany appeared first on Capgemini Poland.

    ]]>

    Gen AI a procesy Intercompany – rewolucja w handlu i uzgadnianiu sald

    Przemysław Maćczak
    Mar 12, 2025

    W dzisiejszym dynamicznie zmieniającym się świecie biznesu, duże międzynarodowe firmy stają przed wyzwaniem procesowania ogromnych ilości informacji, związanych z transakcjami Intercompany. Przesyłanie każdego dnia wielkiej liczby faktur wystawianych ręcznie, niesie ze sobą wbudowane ryzyko błędów. Co gorsza, rośnie ono wraz z wielkością handlu w ramach grupy kapitałowej. Błędy spowalniają pracę zespołów finansowych, przyczyniają się do konieczności dokonywania odpisów księgowych, wpływają negatywnie na przepływy gotówkowe oraz mogą powodować trudności przy audycie deklaracji podatkowych.

    Manualne procesy w ramach Intercompany pochłaniają bardzo dużo czasu księgowych, którzy muszą śledzić otwarte pozycje, przeglądać arkusze kalkulacyjne w poszukiwaniu informacji, wysyłać emaile do partnerów handlowych oraz uzgadniać dane pomiędzy poszczególnymi spółkami. Wszystko to odbija się na widoczności sald Intercompany. Uzgodnienie pozycji wielu różnych spółek w ramach całej grupy stanowi często bardzo duże wyzwanie nawet dla doświadczonych księgowych. Zwłaszcza, że konieczne jest uzgadnianie danych pochodzących z różnych systemów ERP, ksiąg pomocniczych, dysków wspólnych, emaili itp. Nawet aktualizacja kursów walut potrafi skomplikować cały proces.

    Przekładając to na problemy biznesowe, wiele firm nie potrafi zoptymalizować swojego wewnętrznego łańcucha dostaw, co skutkuje niekonkurencyjnym modelem operacyjnym. Co więcej, korporacje międzynarodowe muszą być świadome, że Urzędy Skarbowe poszczególnych państw coraz dokładniej monitorują optymalizacje podatkowe, w tym ceny transferowe. Wszelkiego rodzaju wątpliwości w rozliczaniu transakcji Intercompany, mogą negatywnie rzutować na opinię na temat całej grupy kapitałowej.

    Jak sztuczna inteligencja rewolucjonizuje myślenie o handlu Intercompany

    Doradzając naszym Klientom, często widzimy, że właśnie z takimi problemami muszą się mierzyć podczas każdego zamknięcia miesiąca (i na co dzień). W tym właśnie miejscu z pomocą przychodzą najnowsze rozwiązania w postaci platform IT pozwalających na efektywne zarządzanie wszystkimi transakcjami Intercompany ze wsparciem sztucznej inteligencji.

    Pre-konfigurowane fakturowanie pozwala na automatyzację księgowań wprost do globalnej księgi pomocniczej (subledger) Intercompany. Jednak największe korzyści, jeżeli chodzi o wydajność, możemy osiągnąć przy wdrożeniu sztucznej inteligencji do analizy rozbieżności w saldach. Wszelkiego rodzaju wyjątki, czy błędy są natychmiast oznaczane. Wbudowany workflow pozwala na szybkie wyjaśnienie spornych faktur. Użytkownik końcowy może szybko przejrzeć transakcje, skupiając się na tych, które stanowią jakiegoś rodzaju odstępstwo od zdefiniowanych reguł.

    Ostatecznie usprawnia to również proces nettingu każdego miesiąca. Efektywna współpraca między działami księgowości a treasury pozwala na szybkie rozliczenie faktur i dokonanie jedynie niezbędnych płatności w ramach grupy, dalej usprawniając przepływ gotówki.

    Korzyści z implementacji rozwiązań bazujących na sztucznej inteligencji

    Przede wszystkim, implementując rozwiązania z komponentem sztucznej inteligancji, możemy stosować modele predykcji trendów. Platformy do zarządzania Intercompany analizują ogromne ilości danych księgowych i identyfikują z wyprzedzeniem potencjalne problemy, które mogłyby opóźnić proces zamknięcia miesiąca. Sztuczna inteligencja potrafi również określić słabe punkty w istniejących relacjach handlowych wewnątrz grupy, usprawniając przyszłe transakcje.

    Uwalniając czas księgowych, sztuczna inteligencja pozwala im bardziej skupić się na analizie danych oraz lepszym podejmowaniu decyzji. Możliwe jest to dzięki wdrożeniu raportowania transakcji niemalże w czasie rzeczywistym. Od dawna wiadomo, że wizualizacja danych zdecydowanie ułatwia ludziom ich zrozumienie i podjęcie działań.

    Idąc dalej, przekłada się to na redukcję ryzyka związanego z błędami, odpisami księgowymi, a nawet potencjalnymi karami. Transakcje księgowane są w obu spółkach w tym samym czasie. Automatyczne kontrole sprawdzają, czy nałożone marże są zgodne z ustalonymi cenami transferowymi oraz uwarunkowaniami podatkowymi.

    Jak Capgemini pomaga klientom?

    Konsultanci pracujący w takich międzynarodowych zespołach jak IFAO Consulting w sposób unikalny łączą wiedzę księgową z najnowszymi trendami IT i ich wykorzystaniem na platformach księgowych. W szczególności w przypadku procesów Intercompany pomagamy naszym klientom w reorganizacji ich zespołów, zwiększając efektywność poprzez wdrożenia oparte na narzędziach wykorzystujących Sztuczną Inteligencję. Przekłada się to na konkretne wartości dla firm – przyspieszając przebieg zamknięcia miesiąca, poprawiając przepływ gotówki i dając zespołom finansowym odpowiednie możliwości, by wspierać potrzeby biznesowe, mitygować ryzyka podatkowe oraz polepszać „rachunek zysków i strat”.

    Author:

    Przemysław Maćczak

    doświadczony Manager ds. Transformacji. Od ponad 17 lat w Capgemini, pracował jako konsultant z wieloma korporacjami z różnych branż, na całym świecie. Jego pasją jest bliska praca z klientem, analiza wyzwań oraz dostarczanie.

      The post Gen AI a procesy Intercompany appeared first on Capgemini Poland.

      ]]>
      909021
      Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/insights-expert-perspetives-navigating-knowledge-bases-efficiently-the-power-of-gen-ai-and-snowflake-cortex-ai/ Thu, 10 Oct 2024 03:59:59 +0000 https://www.capgemini.com/pl-pl/?p=905899&preview=true&preview_id=905899 The post Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI appeared first on Capgemini Poland.

      ]]>

      Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI

      Dawid Benski
      7th October 2024

      Click here for English version

      Większość firm, przechowuje tysiące stron dokumentów które są niezbędne w pracy zespołowej. Bazy danych szybko się rozrastają i ciągle ewoluują, co stwarza wyzwanie, jakim jest odnalezienie w nich odpowiednich informacji.

      Pomimo starannej dokumentacji, czy też stosowaniu rozwiązń polegających na indeksowaniu treści, dotarcie do tego, czego szukamy, staje się żmudną operacją – musimy albo znać lokalizację danego dokumentu, albo szukać po dokładnych słowach kluczowych.

       Case study jednego z naszych klientów

      U jednego z klientów Capgemini, zespół budujący i obsługujący nową platformę  danych był zasypywany masą pytań ze strony niedoświadczonych użytkowników i użytkowniczek, co poważnie zmniejszało jego zdolności do dalszego rowijania tej platformy i dotrzymania ustalonych terminów na wprowadznie nowych funkcjonalności.

      Pokrótce wyjaśnię, na czym polegała obsługa typowego zapytania, pochodzącego od osób korzystających z  platformy:

      1. Klient kieruje pytanie do zespołu obsługującego platformę.
      2. Dedykowana osoba z zespołu platformy przegląda dostępne dokumenty Wiki i szuka odpowiednich informacji.
      3. Kilka minut lub nawet kilka godzin później, osoba z obsługi przekazuje informacje (link) do osoby pytającej.
      4. Odpowiedź może być niejasna, co powoduje zadanie kolejnego pytania.

      Dodam, że wiele pytań było podobnych lub wręcz powtarzało się.

      Wraz ze wzrostem ilości osób korzystających z platformy, rośnie tygodniowy nakład pracy poświęcony wsparciu klientów i przewiduje się, że do końca 2024 roku osiągnie on 2,5 “FTE” (etatów) stale zajmujących się tym zadaniem. Ponadto czas odpowiedzi na prośby dotyczące wsparcia jest zbyt długi, co dodatkowo prowadzi do spadku zadowolenia klientów z obsługi.

      Rozmawiaj ze swoimi danymi za pomocą Gen AI

      Klient wykorzystywał kilka technologii chmurowych, w tym Snowflake, jako główne rozwiązanie w zakresie baz danych i hurtowni danych. Eksperci Capgemini szybko dostrzegli technologię Snowflake Cortex AI jako klucz do stworzenia nowoczesnego rozwiązania, które w przyszłości rozwiąże problemy klienta związane z kosztami operacyjnymi obsługi zapytań na jego platformie.

      Jak zmniejszyć koszty operacyjne i jednocześnie przenieść interakcje z klientami na nowy poziom?

      1. Przejdź bezpośrednio do chatbota i zadaj pytanie.
      2. Nadal masz pytanie? Zadaj kolejne.
      3. Chatbot nie potrafi odpowiedzieć na twoje pytanie? Skontaktuj się z odpowiednią osobą z zespołu platformy.

      Z takim pomysłem Capgemini przystąpiło do wdrożenia chatbota opartego o Gen AI, który mógłby efektywnie odpowiadać na pytania klientów. Chatbot, wspierany przez obszerne repozytoria wiedzy firmy, zapewniał, że dostarczane odpowiedzi były dokładne i jasne. Dodatkowo, chatbot odnosił się do źródłowego linku dokumentacji Wiki jako części swoich odpowiedzi, ułatwiając znalezienie potrzebnych informacji oraz niejako potwierdzając ich poprawność.

      Takie rozwiązanie dostępne 24 godziny na dobę sprawiło,  że klienci mogli uzyskać pomoc o każdej porze dnia i nocy.

      Wykorzystując moc Cortex AI i Gen AI opierających się na Retrieval-Augmented Generation (RAG), Capgemini zrewolucjonizowało sposób obsługi wsparcia klienta.

      Rzut oka na architekturę

      Architektura RAG zaproponowana przez Capgemini dla chatbota Cortex AI składała się z trzech typów usług:

      • Cortex AI Functions dla wsparcia large language model (LLM): EMBED_TEXT_768, VECTOR_L2_DISTANCE, oraz COMPLETE).
      • Snowpark Container Services dla interfejsu użytkownika.
      • Tabele Snowflake jako tzw. “vector store” (z natywnym wsparciem typu “vector”).

      Wyjaśnienie podstawowych terminów:

      • RAG to podejście architektoniczne, które zwiększa możliwości dużych modeli językowych (LLM) poprzez włączenie systemu wyszukiwania informacji. System ten wyszukuje odpowiednie dane takie jak np.  dokumenty i dostarcza je jako kontekst dla LLM, poprawiając dokładność i trafność generowanych odpowiedzi.
      • Snowflake Cortex AI to inteligentna, w pełni zarządzana usługa w ramach Snowflake, która pozwala firmom wykorzystać moc sztucznej inteligencji (AI), umożliwiając użytkownikom i użytkowniczkom szybkie analizowanie danych i budowanie aplikacji AI bez potrzeby posiadania rozległej wiedzy technicznej.
      • Funkcje Snowflake Cortex AI to zestaw wstępnie przygotowanych funkcji LLM, które pozwalają na wykonywanie zaawansowanej analizy danych i zadań AI bezpośrednio na platformie Snowflake. Te funkcje obejmują możliwości takie jak uzupełnianie tekstu, analiza sentymentu i podsumowywanie tekstu.
      • Usługi kontenerowe Snowflake to w pełni zarządzana oferta kontenerowa, która pozwala na wdrażanie, zarządzanie i skalowanie aplikacji kontenerowych w ramach platformy danych Snowflake.

      Wdrożenie chatbota Gen AI opartego na technologii Snowflake Cortex AI, pozwoliło klientowi na usprawnienie procesów wsparcia swojego klienta oraz na zmniejszenie kosztów operacyjnych. To innowacyjne rozwiązanie wykorzystujące moc Generatywnej Sztucznej Inteligencji (GenAI) sprawiło, że użytkownicy i użytkowniczki mogą łatwo nawigować po rozległych bazach wiedzy i bardzo łatwo znajdować potrzebne informacje.

      Cortex Search

      Opisałem sposób, w jaki Capgemini zbudowało narzędzie wyszukiwania dla podanego use case klienta. Niedawno wprowadzony serwis Cortex Search sprawił, że budowa takich rozwiązań stała się znacznie łatwiejsza. Cortex Search sam zarządza procesami embeddingu oraz wektoryzacji, stąd nie trzeba już samodzielnie oprogramowywać tych kluczowych elementów rozwiązań typu RAG a zamiast tego mozna korzystać z pełnego rozwiązania SaaS.  Dodatkowo, serwis ten podniósł jakość generowanych wyników dzięki zaawansowanemu rozwiązaniu wyszukiwania, łączącemu wyszukiwanie semantyczne i leksykalne. To skuteczne podejście jest niewątpliwie przełomem w budowaniu rozwiązań opartych na Gen AI RAG.

      Capgemini and Snowflake

      Współpraca między Capgemini a Snowflake pozwala na budowę zaawansowanych ekosystemów, w których firmy mogą bez wysiłku udostępniać i korzystać z udostępnionych danych. Capgemini i Snowflake współpracują nad opracowywaniem rozwiązań Generatywnej Sztucznej Inteligencji, które wykorzystują zaawansowaną technologię Snowflake Cortex do implementacji innowacyjnych rozwiązań kluczowych w nowoczesnym biznesie.

      Ta strategiczna współpraca doprowadziła do tego, że Snowflake nadało firmie  Capgemini tytuł “2023 EMEA Global SI Partner of the Year”.

      English version

      Navigating knowledge bases efficiently: The power of Gen AI and Snowflake Cortex AI

      Most companies that rely heavily on document stores for knowledge sharing and team collaboration often end up with many pages created by users.

      The rapid growth and constant evolution of these knowledge bases pose significant challenges in finding relevant content. Despite diligent documentation, navigating to the pertinent information remains difficult – one either knows where the document is or the exact keywords to find it.

      Real customer scenario

      At one of Capgemini’s clients, a team operating and building a new data platform was entangled in customer support, reducing its ability to create new functionalities.

      Allow me to briefly explain what a typical support request entailed:

      1. The customer raises a question to the platform team.
      2. A dedicated person from the platform team browses available Wiki documentation and searches for relevant information.
      3. Several minutes or even hours later, the person passes the information (a link) to the requestor.
      4. The answer may not be clear, prompting the need for another question to be asked.

      The weekly effort spent on customer support is increasing, and it is projected to reach 2.5 “FTE” permanently occupied with customer support activity by the end of 2024, as the number of platform users grows. Moreover, the response time for support requests is too long, leading to a poor customer experience.

      Talk to your data with Gen AI

      The client uses several cloud technologies, including Snowflake, as the core database and data warehouse solution. Capgemini experts were quick to consider Snowflake Cortex AI technology as the key to creating a cutting-edge solution for tomorrow, addressing the client’s issues with operational costs.

      Why not ramp down on operational costs and ramp up customer interactions to a new level like this?

      1. Go straight to the chatbot and ask the question.
      2. Still have a question? Ask another question.
      3. Is the chatbot not able to answer your question? Contact a relevant person from the platform team.

      With this vision in mind, Capgemini set out to implement a Gen AI-based chatbot that could answer customer questions efficiently. The chatbot, powered by the company’s extensive knowledge repositories, ensured that the provided answers were accurate and relevant. Additionally, the chatbot referenced the source Wiki documentation link as part of its responses, making it easier for users to find the information they needed.

      The solution worked 24/7, ensuring that customers could get help at any time of the day or night. This innovative approach aimed to reduce the burden on the customer support team and enhance the overall customer experience. By leveraging the power of Cortex AI and Retrieval-augmented generation “RAG”-based Gen AI, Capgemini was poised to revolutionize how customer support was handled, paving the way for a more efficient future.

      High-level architecture

      The RAG architecture Capgemini proposed for the Cortex AI chatbot consisted of three service types:

      • Cortex AI Functions for large language model (LLM) support: EMBED_TEXT_768, VECTOR_L2_DISTANCE, and COMPLETE)
      • Snowpark Container Services for retrieval front-end.
      • Snowflake tables as a vector store (native support of vectors as data types in Snowflake).

      Let me explain some basic terms:

      • RAG is an architectural approach that enhances the capabilities of large language models by incorporating an information retrieval system. This system retrieves relevant data or documents and provides them as context for the LLM, improving the accuracy and relevance of the generated responses.
      • Snowflake Cortex AI is an intelligent, fully managed service within Snowflake that allows businesses to leverage the power of artificial intelligence (AI) that enables users to quickly analyze data and build AI applications without the need for extensive technical expertise.
      • Snowflake Cortex AI Functions are a set of pre-built LLM functions that allow users to perform advanced data analysis and AI tasks directly within the Snowflake platform. These functions include capabilities such as text completion, sentiment analysis, and text summarization.
      • Snowflake Container Services is a fully managed container offering that allows users to deploy, manage, and scale containerized applications within the Snowflake data platform.

      By implementing a Gen AI chatbot based on Snowflake Cortex AI technology, evaluated by Capgemini, the client can streamline the customer support processes, reduce operational costs, and enhance customer interactions. This innovative solution leverages the power of AI to provide accurate and timely answers, ensuring that users can easily navigate through vast knowledge bases and find the information they need.

      Cortex Search

      I described the way Capgemini built a search tool for the client’s use case. The latest introduction of Cortex Search replaces the need for standalone vector tables and a self-managed embedding process with a fully managed RAG engine. This advancement not only streamlines development but also elevates the quality of outcomes with sophisticated retrieval and ranking techniques that merge semantic and lexical search. This effective approach is undoubtedly a game changer in building Gen AI RAG-based solutions.

      Capgemini and Snowflake

      The collaboration between Capgemini and Snowflake leverages Snowflake’s AI data cloud to enable businesses to unify and connect to a single copy of all data with ease. This partnership allows for the creation of collaborative data ecosystems, where businesses can effortlessly share and consume shared data and data services.

      Capgemini and Snowflake are collaborating to develop generative AI solutions that leverage Snowflake’s advanced AI Data Cloud technology to drive innovation and enhance business outcomes across various industries.

      This strategic relationship has led to Snowflake naming Capgemini the 2023 EMEA Global SI Partner of the Year.

      Autor

      Dawid Benski

      Delivery Architect Director, Capgemini
      Dawid jako Delivery Architect Director koncentruje się na Big Data i chmurze, pracując głównie dla sektorów takich jak telco i automotive. Ma doświadczenie w bezpośredniej pracy z klientami, a także w zdalnym zarządzaniu zespołem, zarówno w Niemczech, jak i Indiach.

        The post Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI appeared first on Capgemini Poland.

        ]]>
        905899
        Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć? https://www.capgemini.com/pl-pl/insights/blogi-eksperckie/aplikacje-chmurowe-oparte-na-ai/ Wed, 12 Jun 2024 12:09:43 +0000 https://www.capgemini.com/pl-pl/?p=903297 The post Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć? appeared first on Capgemini Poland.

        ]]>

        Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć?

        Marek Matczak
        Jun 12, 2024

        W ostatnim czasie zespół Capgemini miał okazję stworzyć kilka aplikacji biznesowych wykorzystujących sztuczną inteligencję, również tę generatywną – zawdzięczającą swoją niezwykłą popularność chatowi GPT. W tym artykule dzielę się z Wami swoimi spostrzeżeniami, które okazały się niezwykle istotne w trakcie budowania takich rozwiązań.

        Kiedy mówmy o generatywnej sztucznej inteligencji, to niemal od razu myślimy o tzw. dużych modelach językowych (ang. Large Language Models, LLMs), które są wprawdzie jej najbardziej rozpoznawalnym, ale nie jedynym, elementem. Budowanie niezawodnych aplikacji opartych na sztucznej inteligencji wymaga holistycznego podejścia, w którym korzystamy z wyspecjalizowanych, najczęściej chmurowych, narzędzi AI. Co więcej, używamy ich w oparciu o najnowsze wzorce projektowe z obszaru AI, a także stosujemy sprawdzone w wielu projektach techniki inżynierii oprogramowania.

        LLMy: zaglądamy do środka

        Zakres wiedzy LLMów jest ograniczony i zależy od zbioru danych użytego w trakcie trenowania modeli. Podczas budowania aplikacji biznesowych niesie to ze sobą dwa podstawowe wyzwania: jak wzbogacić duże modele językowe o wiedzę specyficzną dla danego biznesu, np. o treści rozporządzeń dla pracowników oraz jak zapewnić, że zmiany w tych rozporządzeniach będą od razu widoczne w trakcie używania tych modeli. Pierwszym pomysłem, który się nasuwa, jest wytrenowanie własnego modelu od podstaw, względnie dotrenowanie modelu bazowego, z użyciem swoich danych i powtarzanie tego procesu, gdy konieczna jest ich aktualizacja. Te podejścia są jednak w większości przypadków niepraktyczne ze względu na ogromne koszty idące nawet w setki milionów złotych. Bardziej efektywnym rozwiązaniem jest metoda uczenia kontekstowego (ang. in-context learning). Polega ona na tym, że w zapytaniu wysyłanym do modelu, oprócz właściwego pytania, np. “Jaka jest procedura zgłaszania awarii sprzętu?”, wysyłamy również treść dokumentu opisującego treści procedur, w tym tej, o którą pytamy. W metodzie uczenia kontekstowego duże modele językowe nie wykorzystują zatem wiedzy pozyskanej w trakcie ich trenowania, ale używają zdolności do znaczeniowej analizy tekstu (zarówno dokumentu, jak i właściwego pytania). Co więcej, ta analiza odbywa się w trakcie generowania odpowiedzi, mówiąc kolokwialnie “w locie”. Ta metoda ma jednak również swoje ograniczenie. Jest nim rozmiar zapytania, czyli tzw. promptu, a co za tym idzie ograniczona ilość wiedzy, o jaką możemy rozbudować nasz model. Z tym ograniczeniem można sobie jednak poradzić. Jednym ze sposobów jest zastosowanie popularnego wzorca RAG (ang. Retrieval Augmented Generation), polegającego na umieszczeniu w prompcie tylko tych fragmentów dokumentów, które są istotne z punktu widzenia zadawanego pytania. Drugim sposobem jest… pozbycie się tego ograniczenia i użycie LLMu pozwalającego na ogromny rozmiar promptu idący w tysiące stron tekstu (np. Gemini 1.5 od Google).

        RAG: inteligentne wyszukiwanie = mniejszy rozmiar promptu

        RAG wykorzystuje możliwości kolejnych elementów z obszaru AI: zanurzenie (ang. embeddings) i wektorowe bazy danych (więcej o tych elementach w dalszej części artykułu). Kombinacja tych elementów pozwala na znalezienie dopasowania znaczeniowego między pytaniem, wracając do naszego przykładu: “Jaka jest procedura zgłaszania awarii sprzętu?”, a fragmentami dokumentów, które z dużym prawdopodobieństwem zawierają odpowiedź na to pytanie. Dzięki technice RAG znacząco ograniczamy rozmiar promptu oraz zwiększamy jakość generowanych odpowiedzi, która może być niższa, jeśli prompt zawiera nieistotne informacje, czyli tzw. “szum”.

        LLMy z rozszerzonym oknem kontekstowym

        Najnowsze LLMy pozwalają na zbudowanie promptu o rozmiarze odpowiadającym nawet ponad tysiącu stronom tekstu. To sporo. W wielu wypadkach rozmiar ten pozwoliłby na umieszczenie w prompcie np. wszystkich procedur firmy. Nie musimy wówczas implementować wzorca RAG. Zaraz, zaraz… Ale co ze wspomnianym wyżej „szumem”, który może przecież obniżyć jakość generowanych odpowiedzi? Okazuje się, że testy przeprowadzone na modelach z dużymi oknami kontekstowymi (inna nazwa na rozmiar promptu), zwane obrazowo szukaniem igły w stogu siana, dały bardzo obiecujące rezultaty i zdają się nie potwierdzać obaw związanych ze wspomnianym „szumem”: udało się w większości testów znaleźć przysłowiową igłę.

        Które podejście wybrać?

        RAG czy LLM z rozszerzonym oknem kontekstowym? W podjęciu decyzji może pomóc analiza kosztów obu rozwiązań. Koszt zapytania do LLMu zależy od wielkości promptu, ale w przypadku rozwiązania opartego na RAG musimy doliczyć koszt wektorowej bazy danych, obliczania zanurzeń oraz rozwiązania samego w sobie.

        Dodatkowym argumentem przy wyborze rozwiązania powinna być ocena jakości generowanych odpowiedzi. Jak to zrobić? O tym w dalszej części artykułu.

        Wykorzystanie kreatywności (lub jej ograniczenie)

        Jedną z najbardziej spektakularnych cech LLMów jest ich kreatywność. Szukasz inspiracji, gdzie pojechać na wakacje i jak zaplanować tam czas? LLM jest w stanie wygenerować odpowiedź w ciągu kilku sekund! Ale uwaga: ta odpowiedź może zawierać zmyślone lub nieprawdziwe informacje (halucynacje). Dokładnego przeciwieństwa, czyli ograniczenia halucynacji, a zamiast kreatywności – odpowiedzi bazującej na faktycznych dokumentach, oczekiwalibyśmy natomiast od wirtualnego asystenta odpowiadającego na wspomniane wcześniej pytanie: “Jaka jest procedura zgłaszania awarii sprzętu?” Jak to zrobić? Okazuje się, że LLMy mają parametry, takie jak temperatura czy top_k, które umożliwiają kontrolowanie tych aspektów. Na przykład ustawienie temperatury na 0 i top_k na 1 sprawi, że odpowiedzi będą bardziej faktyczne.

        Aby zwiększyć wiarygodność odpowiedzi, możemy dodać linki do dokumentów źródłowych, a nawet opatrzyć odpowiedź cytatami z tych źródeł. Możemy również poinstruować model (o tym jak to zrobić, w dalszej części artykułu), aby w razie, gdy nie można było znaleźć odpowiedzi w samym prompcie, nie „halucynował”, ale odpowiedział po prostu „nie wiem”. Warto wspomnieć przy tej okazji, że całkowite wyeliminowanie halucynacji z LLMów, które są modelami statystycznymi, a więc niedeterministycznymi, nie jest na ten moment możliwe. Należy ten fakt wziąć pod uwagę projektując rozwiązanie biznesowe. W niektórych wypadkach nie da się zupełnie wyeliminować człowieka w podjęciu decyzji biznesowej (ang. human in the loop).

        Wektorowe reprezentacje: cichy bohater

        Zanurzenia są wektorową reprezentacją znaczenia pojedynczego słowa czy fragmentu tekstu (ale również obrazu lub dźwięku). Ta „sucha” definicja nie oddaje jednak ogromnych możliwości zastosowania tego elementu sztucznej inteligencji w budowanych aplikacjach biznesowych. Mówiąc o znaczeniu mam na myśli jego cały kontekst z uwzględnieniem wielu niuansów (np. kulturowych). Zresztą najlepszym dowodem potwierdzającym te możliwości jest fakt, że zanurzenia są wykorzystywane w trakcie trenowania samych LLMów, a także za każdym razem, gdy wysyłamy do nich nasz prompt. Jakie mogą być potencjalne rozwiązania biznesowe z użyciem zanurzeń? Na przykład wyszukiwanie kontekstowe zamiast tradycyjnego bazującego na słowach kluczowych albo system rekomendacji produktów w oparciu o aktualny koszyk zamówień.

        Budując aplikacje biznesowe z elementami AI najczęściej zaczynamy od LLMa, ale może się okazać, że nie jest on w ogóle potrzebny, bo to właśnie wektorowe reprezentacje są rozwiązaniem naszego wyzwania biznesowego. Warto też sprawdzić w dokumentacji technicznej czy wybrany model wektorowych reprezentacji wspiera język tekstów danej aplikacji (np. opisy produktów).

        Wektorowa baza danych: znajdź podobieństwa

        W jaki sposób wyszukać podobne znaczeniowo fragmenty dokumentów albo – jak wspomniano wcześniej w metodzie RAG – znaleźć te zawierające odpowiedź na zadane pytanie? Z pomocą przychodzą wektorowe bazy danych, które umozliwiają przechowywanie wektorów, a wraz z nimi np. tekstów. Co więcej, produkty te umozliwiają efektywne przeszukiwanie wielowymiarowych przestrzeni wektorowych w celu znalezienia tych znajdujących się blisko siebie, co za tym idzie, odpowiadających im podobnych znaczeniowo tekstów.

        Jaką bazę wybrać?

        Jaki produkt bazodanowy wybrać? Choć na rynku jest sporo specjalizowanych produktów, np. Pinecone, Amazon Kendra albo Azure AI Search, rozważyłbym użycie tradycyjnej, relacyjnej bazy danych z rozszerzeniem wektorowym, np. PostgreSQL i pgvector. Szczególnie w początkowej fazie budowania aplikacji, kiedy nie znamy jeszcze dokładnych wymagań wydajnościowych, warto postawić na takie hybrydowe rozwiązanie, tym bardziej, że w ten sposób znacząco ograniczymy koszty chmury.

        Inżynieria Promptów: język AI

        Treść, którą wysyłamy do LLMa, czli tzw. prompt, może zawierać nie tylko samo pytanie, ale również instrukcje wraz dodatkowymi informacjami. Na przykład, w opisywanym wcześniej podejściu uczenia kontekstowego, prompt zawiera instrukcję, aby odpowiedzieć na pytanie w oparciu o załączone fragmenty dokumentów. Nie jest to niczym innym niż programowaniem w języku naturalnym! Na potwierdzenie tych słów warto zacytować tutaj Andreja Karpathy’ego, badacza i popularyzatora AI: The hottest new programming language is English. Tak jak w tradycyjnym programowaniu posługujemy się pewnymi wzorcami, tak i w tym swoistym języku AI takich potrzebujemy. Sztukę tworzenia promptów określa się mianem inżynierii promptów. Choć ten termin brzmi bardzo poważnie, nie trzeba być tutaj specjalistą. Według mnie podstawowe techniki inżynierii promptów powinien znać każdy, a ich nauczanie powinno zacząć się już w szkole podstawowej!

        Oprócz podstawowych technik mamy również zaawansowane, takie jak Chain-of-Thought czy ReAct. Ta ostatnia pozwala na złożone wnioskowanie angażujące wiele źródeł danych, zarówno wewnętrznych w danej organizacji, jak i zwnętrznych, np. Wikipedia.

        Jakość ma znaczenie: struktura ponad wszystko

        Jakość wygenerowanych przez LLM odpowiedzi w dużym stopniu zależy od jakości danych wejściowych. Formaty danych, takie jak Markdown, JSON czy HTML są ustrukturyzowane, np. są podzielone na rozdziały, w nich akapity, a w nich z kolei mogą być tekst czy tabele. Prompty tworzone w oparciu o takie ustrukturyzowane dane, ułatwiają LLMom zrozumienie kontekstu, a w konsekwencji generowanie sensownych odpowiedzi.

        Dane nieustrukturyzowane, np. pliki w formacie PDF, obrazy czy diagramy, mogą wymagać wstępnego przetwarzania (tradycyjnie lub z użyciem sztucznej inteligencji) lub zastosowania multimodalnych LLMów (np. akceptujących na wejściu obrazy), np. Gemini Pro (Vision) czy GPT-4o, aby poprawnie zrozumieć kontekst. Posłużmy się przykładem. Pewien dokument PDF zawiera, oprócz tekstu, złożony wykres ilustrujący trendy sprzedaży. Multimodalny LLM potrafi wygenerować słowny opis tego wykresu, który wraz z pozostałą częścią dokumentu może posłużyć do wygenerowania odpowiedzi na pytanie dotyczące sprzedaży.

        Aby poprawić jakość, warto pozyskać od użytkowników aplikacji informację zwrotną dotyczącą ich subiektywnej oceny trafności odpowiedzi. Przykładowa implementacja może mieć formę przycisków “lubię/nie lubię” czy formularza. Zebrane w ten sposób sugestie mogą posłużyć np. do doprecyzowania instrukcji w prompcie.

        Testowanie w erze sztucznej inteligencji

        Niedeterministyczny charakter LLMów oznacza, że powtarzając test dla tego samego wejścia możemy otrzymać za każdym razem nieco inną odpowiedź. Jak zatem testować takie aplikacje? Z pomocą znów przychodzi nasz “cichy bohater” – zanurzenie. Aby porówać oczekiwane odpowiedzi z tymi wygenerowanymi przez LLMy, wystarczy w obu wypadkach znaleźć wektorowe reprezentacje i porównać odległości między tymi wektorami. Wówczas nawet jeśli odpowiedź wyrażona jest w nieco inny sposób, ale nadal jest prawidłowa, można test uznać za pozytywny.

        W trakcie budowania aplikacji, szczególnie chatbotów, testowanie promptów i ich odpowiedzi jest niezmierne ważnym elementem. Pamiętajmy, że prompt jest w zasadzie programem napisanym w języku naturalnym, więc konsekwencje braku testów są podobne do nieprzetestowanego kodu źródłowego. W przypadku niedeterministycznych LLMów brak testów promptów ma jeszcze większy negatywny wpływ na stabilność i niezawodność aplikacji.

        Bezpieczeństwo: Tu nie ma kompromisów

        Elementy AI w aplikacjach nie są wyjątkiem I również wymagają dodatkowej uwagi z punktu widzenia bezpieczeństwa. Jeśli do LLMa wysyłamy w prompcie treści spoza aplikacji (np. wprowadzone przez użytkownika albo przysłane mailem) musimy je sprawdzić czy nie zawierają np. instrukcji aby ujawnić poufne informacje albo kierują rozmowę na tematy nie związane z przenaczeniem danej aplikacji (tzw. prompt injection). Podobnie z generowanymi odpowiedziami: należy sprawdzić czy te nie zawierają treści mogących wpłynąć negatywnie na reputację danej firmy. Na szczęście są na rynku narzędzia, zarówno komercyjne, jak i open source, które umożliwiają skutecznie wdrożyć te środki bezpieczeństwa.

        Miłego kodowania!

        Budowanie aplikacji chmurowych opartych na sztucznej inteligencji jest sporym wyzwaniem. Temu wyzwaniu można jednak podołać, jeśli pozna się elementy oraz narzędzia AI, a także zastosuje wzorce i dobre praktyki z tego obszaru. Właśnie przybliżenie tych ostatnich było celem mojego artykułu. Mam nadzieję, że moje spostrzeżenia pomogą w tworzeniu wydajnych, bezpiecznych i innowacyjnych rozwiązań opartych na sztucznej inteligencji. Miłego kodowania!

        The post Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć? appeared first on Capgemini Poland.

        ]]>
        903297