Spada, a miało rosnąć?
Paradoks produktywności AI w zespołach deweloperskich

Wprowadzenie: obietnica, która nie dotrzymała słowa

Obietnice były jasne: szybsze pisanie kodu, lepsza jakość, wyższa produktywność zespołów. Rzeczywistość okazała się jednak znacznie bardziej złożona.

Raport DORA „Impact of Generative AI in Software Development" (v.2025.2) ujawnił zjawisko, które stało się „wodą na młyn" dla sceptyków stosowania AI w cyklu wytwarzania oprogramowania. Podczas gdy metryki indywidualne i procesowe wykazują poprawę dzięki stosowaniu AI w SDLC, wskaźniki efektywności na poziomie organizacji - przepustowość dostarczania i stabilność dostarczania - wykazują relację ujemną w odniesieniu do stosowania AI.

Jak to możliwe, że deweloperzy są bardziej produktywni, kod jest lepszej jakości, a jednocześnie zespoły dostarczają oprogramowanie wolniej i mniej stabilnie?

Rachel Stephens z RedMonk dosadnie sformułowała ten problem: „To jest trochę WTF, prawda? Ludzie czują się bardziej produktywni z AI, ale jednocześnie spędzają mniej czasu na wartościowej pracy, a system ma mniejszą przepustowość" [1].

Ten paradoks stał się przedmiotem debaty społeczności IT i doprowadził do fundamentalnego wniosku: bez systemowego podejścia do cyklu wytwarzania oprogramowania nie ma szans na faktyczny wzrost wydajności dzięki AI.

Dane, które nie pasują do narracji

Poniżej przedstawione są statystyki zawarte w raporcie DORA. Obraz, jaki wyłania się z danych, jest niezwykle kontrastowy.

Poziom indywidualny: wszystko wygląda świetnie

Na poziomie indywidualnym adopcja AI przynosi wymierne korzyści. Dla wzrostu adopcji AO o 25% raport wskazuje:

  • Produktywność: +2,1% - Raport stwierdza wprost: „Productivity, for example, is likely to increase by approximately 2.1% when an individual's AI adoption is increased by 25%" [2]
  • Przepływ pracy (stan flow): +2,6% - Opisany jako „substantial and beneficial impact on flow" [2]
  • Satysfakcja z pracy: +2,2% - Potwierdzony pozytywny wpływ na satysfakcję z pracy [2]

Poziom procesowy: jakość rośnie

Metryki procesowe na poziomie organizacyjnym prezentują się również obiecująco. Wzrost adopcji AI o 25% przekłada się na:

  • Jakość dokumentacji: +7,5% - „A 25% increase in AI adoption is associated with a… 7.5% increase in documentation quality" [2]
  • Jakość kodu: +3,4% - „A 25% increase in AI adoption is associated with a… 3.4% increase in code quality" [2]
  • Szybkość przeglądów kodu: +3,1% - „A 25% increase in AI adoption is associated with a… 3.1% increase in code review speed" [2]
  • Szybkość zatwierdzania: +1,3% - „A 25% increase in AI adoption is associated with a… 1.3% increase in approval speed" [2]
  • Złożoność kodu: −1,8% (redukcja, czyli poprawa) - „A 25% increase in AI adoption is associated with a… 1.8% decrease in code complexity" [2]

Poziom dostarczania: zwrot akcji

I tutaj pojawia się zasadnicze zaskoczenie. Te same dane pokazują, że:

  • Przepustowość dostarczania: −1,5% - Rzeczywista przepustowość dostarczania oprogramowania spada
  • Stabilność dostarczania: −7,2% - Stabilność dostarczania dramatycznie się pogarsza

Raport wskazuje: „We see that the effect on delivery throughput is small, but likely negative (an estimated 1.5% reduction for every 25% increase in AI adoption). The negative impact on delivery stability is larger (an estimated 7.2% reduction for every 25% increase in AI adoption)" [2].

Connor Davis, podsumował ten paradoks: „AI poprawia indywidualne metryki, ale szkodzi dostarczaniu przez większe listy zmian i brak podstaw systemowego stosowania AI w cyklu wytwarzania" [3].

Anatomia paradoksu: dlaczego więcej nie znaczy lepiej?

1. Teoria małych paczek: zapomnienie o fundamentach

Pierwszą i być może najważniejszą przyczyną paradoksu jest naruszenie jednej z podstawowych zasad DORA - zasady małych paczek zmian.

Blog Zarar's wyjaśnia mechanizm tego zjawiska: „Raport wskazuje, że fundamentalny przeskok paradygmatu, jaki AI spowodował w produktywności, może sprawić, że branża zapomniała o jednej z podstawowych zasad DORA - znaczeniu małych paczek zmian" [4]. Dalej czytamy: „AI pozwala tworzyć więcej kodu w tym samym czasie, więc listy zmian rosną w rozmiarze. DORA konsekwentnie pokazywał, że większe zmiany są wolniejsze i bardziej podatne na niestabilność" [4].

Rachel Stephens z RedMonk formułuje hipotezę: „Zbiorowo zidentyfikowaliśmy i wskazaliśmy niewłaściwe ograniczenie. Większość korporacyjnego AI w cyklu wytwarzania przyszła w formie asystentów kodowania. Obecne statystyki zdają się mówić, że generowanie kodu nie jest wąskim gardłem" [1].

To kluczowe spostrzeżenie. Przez dziesięciolecia optymalizowaliśmy proces wytwarzania oprogramowania, identyfikując wąskie gardła. AI rozwiązało problem, który... nie był głównym problemem. Prawdziwymi ograniczeniami okazują się:

  • Proces przeglądów kodu
  • Testy i walidacja
  • Integracja zmian
  • Wdrażanie i stabilizacja

2. AI jako wzmacniacz, nie uniwersalne rozwiązanie

Druga fundamentalna przyczyna paradoksu tkwi w naturze AI - nie jest to narzędzie, które „naprawia" organizację, lecz wzmacniacz istniejących właściwości.

Gene Kim z IT Revolution ujmuje to w następujący sposób: „AI nie tworzy doskonałości organizacyjnej - wzmacnia to, co już istnieje. Dla wysoko wydajnych organizacji z solidnymi fundamentami AI staje się potężnym akceleratorem. Dla tych z dysfunkcyjnymi systemami powiększa chaos" [5].

Laura Weis z Pragmatic Engineer dodaje: „AI nie jest 'silver bullet' - poprawia przepływ pracy i satysfakcję, ale obniża przepustowość w słabych zespołach przez brak dyscypliny" [6]. Krytykuje również dominujący w branży szum medialny, sugerując, że „faster doesn't always mean better" [6].

Raport Faros AI nazwał to zjawisko „paradoksem produktywności AI": „Asystenci kodowania AI dramatycznie zwiększają indywidualną wydajność - 21% więcej ukończonych zadań, 98% więcej scalonych żądań zmian - ale organizacyjne metryki dostarczania pozostają płaskie" [7]. Kluczowy wniosek brzmi: „Oba badania zbiegają się w kluczowym wniosku: AI działa jako wzmacniacz, nie uniwersalny booster produktywności. Zespoły z silnymi fundamentami platformy widzą, jak ich zyski z AI przekładają się na organizacyjne ulepszenia. Zespoły z wcześniejszymi ograniczeniami widzą, jak ich wzrosty indywidualnej produktywności są pochłaniane przez wąskie gardła w dalszych etapach procesu" [7].

3. Kryzys zaufania i problem jakości

Trzecim elementem układanki jest kwestia zaufania do kodu generowanego przez AI i związanych z tym kosztów weryfikacji.

Nathen Harvey, lider zespołu DORA, wskazuje: „Nie jest jasne, co jest przyczyną tych spadków, ale prawdopodobne jest, że kod napisany przez platformy AI wymaga naprawy przed wdrożeniem do środowiska produkcyjnego" [8]. W innym miejscu dodaje: „Dane naprawdę nie mogą nam powiedzieć, dlaczego. Może zbyt bardzo ufamy AI w procesie przeglądów kodu, co przyspiesza nasze przeglądy, ale prowadzi do niższej stabilności" [9].

Jennifer Riggins z The New Stack przytacza statystykę: „Więcej niż jedna trzecia respondentów zgłosiła niewielkie lub zerowe zaufanie do kodu generowanego przez AI" [10].

Luiza Jarovsky, analityk AI, formułuje ostrzeżenie: „Netto zysk produktywności z AI jest blisko zera, mimo +2,1% indywidualnie, bo koszty weryfikacji (np. niska stabilność −7,2%) niwelują korzyści. Ignorowanie tego to zderzenie z rzeczywistością w 2026 roku" [11].

Dr Milan Milanović ostrzega przed zjawiskiem „moving faster while breaking more things", odnosząc się bezpośrednio do spadku stabilności o 7,2% [12].

4. Brak fundamentów systemowych

Czwartym, być może najważniejszym elementem, jest brak dojrzałej infrastruktury platformowej i praktyk DevOps.

StackSpot podkreśla: „Pozytywne efekty na poziomie organizacji, ale ostrzegają przed spadkiem stabilności (−7,2%), sugerując, że AI wzmacnia istniejące problemy w procesach. Rekomendują inwestycje w platformy wewnętrzne" [13].

Thoughtworks formułuje to jeszcze ostrzej: „AI przekształca inżynierię - wzmacnia mocne strony (+7,5% dokumentacji, +3,1% przeglądów kodu), ale ujawnia słabości (−1,5% przepustowości, −7,2% stabilności) [14].

5. Skupienie na użytkowniku jako różnicujący czynnik

Piąty element to orientacja na użytkownika końcowego. Gene Kim z IT Revolution zwraca uwagę na odkrycie: „Być może najbardziej uderzającym odkryciem jest to, jak skupienie na użytkowniku determinuje wpływ AI. Z wysoką pewnością badania pokazują, że zespoły z silnym skupieniem na użytkowniku widzą wzmocnione korzyści z adopcji AI. Odwrotnie, zespoły bez skupienia na użytkowniku faktycznie doświadczają negatywnego wpływu z adopcji AI" [5].

Krzywa J: czy to tylko przejściowy kryzys?

Ważnym kontekstem dla dyskusji jest perspektywa czasowa. Jennifer Riggins wprowadza pojęcie krzywej J: „Branża technologiczna prawdopodobnie jest na dnie krzywej J, jak powiedział Harvey, ponieważ firmy wciąż ustalają, kiedy i gdzie w cyklu życia dostarczania oprogramowania używać AI" [10].

Abi Noda w rozmowie z Derekiem DeBellisem komentuje: „Podczas gdy AI zwiększa osobistą produktywność (np. wzrost o 2,1%), koreluje z 1,5% spadkiem przepustowości dostarczania i 7,2% spadkiem stabilności. Dobra wiadomość jest taka, że część tego może być tylko krótkoterminowym okresem adaptacji do nowych ograniczeń" [16].

Mechanizmy zabezpieczające jako fundament

HashiCorp wskazuje na kluczowe rozwiązanie: „Chociaż AI obiecuje pomóc organizacjom innowować szybciej niż kiedykolwiek, asystenci kodowania AI muszą być otoczeni skutecznymi mechanizmami zabezpieczającymi. Te systemy zabezpieczeń chronią przed znanymi wadami i umożliwiają organizacjom zwężenie rosnącej luki w stabilności dostarczania" [17].

Wnioski: od szumu medialnego do dojrzałości

Paradoks produktywności AI w zespołach deweloperskich odsłonił fundamentalną prawdę: technologia sama w sobie nie rozwiązuje problemów organizacyjnych - wzmacnia istniejące wzorce. Deweloperzy mogą czuć się bardziej produktywni, kod może być lepszej jakości, ale jeśli organizacja nie ma solidnych fundamentów w postaci dojrzałych praktyk DevOps, skutecznej platformy inżynieryjnej i dyscypliny dostarczania małymi paczkami, zyski indywidualne przepadają w systemowym chaosie.

Dane z raportu DORA jednoznacznie pokazują: −7,2% spadek stabilności dostarczania to nie marginalny efekt uboczny, to systemowy sygnał ostrzegawczy. Jak trafnie ujęła to Luiza Jarovsky, ignorowanie tej rzeczywistości prowadzi do zderzenia z rzeczywistością.

Dobra wiadomość jest taka, że raport z 2025 roku pokazuje początek odwrócenia trendu dla przepustowości - organizacje uczą się, gdzie i jak stosować AI. Zła wiadomość: stabilność nadal spada, co potwierdza, że droga do dojrzałości jest długa.

Jak podsumował Gene Kim: dla organizacji z solidnymi fundamentami AI staje się potężnym akceleratorem. Dla tych z dysfunkcyjnymi systemami - AI powiększa tylko chaos.

Literatura źródłowa

  1. RedMonk (Rachel Stephens): https://redmonk.com/rstephens/2024/11/26/dora2024/
  2. Raport DORA „Impact of Generative AI in Software Development" (v.2025.2), cytaty z dokumentu
  3. Connor Davis (@connordavis_ai): https://x.com/connordavis_ai/status/1973337420918825042
  4. Zarar's Blog: https://zarar.dev/dora-ai-boosting-productivity-hindering-delivery/
  5. IT Revolution (Gene Kim): https://itrevolution.com/articles/ais-mirror-effect-how-the-2025-dora-report-reveals-your-organizations-true-capabilities/
  6. Pragmatic Engineer (Laura Weis): https://newsletter.pragmaticengineer.com/p/measuring-the-impact-of-ai-on-software
  7. Faros AI: https://www.faros.ai/blog/key-takeaways-from-the-dora-report-2025
  8. DevOps.com (Nathen Harvey): https://devops.com/latest-dora-report-surfaces-limited-gains-from-ai-and-platform-engineering/
  9. The New Stack (Nathen Harvey): https://thenewstack.io/dora-2024-ai-and-platform-engineering-fall-short/
  10. The New Stack (Jennifer Riggins): https://thenewstack.io/dora-2024-ai-and-platform-engineering-fall-short/
  11. Luiza Jarovsky (@LuizaJarovsky): https://x.com/LuizaJarovsky/status/1944474369259946258
  12. Dr Milan Milanović (@milan_milanovic): https://x.com/milan_milanovic/status/1975093907135271412
  13. StackSpot: https://stackspot.com/en/blog/gen-ai-in-software-development/
  14. Thoughtworks: https://www.thoughtworks.com/insights/articles/the-dora-report-2025--a-thoughtworks-perspective oraz https://x.com/thoughtworks/status/1973342197589098598
  15. GetDX: https://getdx.com/blog/dora-metrics/
  16. Abi Noda (DevEx Newsletter): https://newsletter.getdx.com/p/doras-latest-research-on-ai-impact
  17. HashiCorp: https://www.hashicorp.com/en/blog/ai-is-making-developers-faster-but-at-a-cost