Wzorzec ukrywania: Dlaczego programiści kłamią o swoim użyciu AI
Wzorzec ukrywania
Wczoraj przez trzy godziny korzystałeś z Claude’a. Dziś rano na standupie powiedziałeś: “Ogarnąłem flow autoryzacji.” Nie: “Claude ogarnął flow autoryzacji.” Nie: “Przez półtorej godziny promptowałem, aż coś zadziałało.”
Ty to ogarnąłeś. Ty.
Nikt cię nie prosił o kłamstwo. Nikt by cię nie ukarał za szczerość. Ale słowa wyszły przefiltrowane. Część z AI została wycięta. Opisałeś output tak, jakbyś napisał go od zera.
Rozpoznajesz to?
Pytanie diagnostyczne
Test Uzależnienia od Internetu Kimberly Young — pierwszy zwalidowany instrument do badania kompulsji technologicznej — składa się z 20 pytań. Pytanie 18 brzmi: “Jak często próbujesz ukryć, ile czasu spędzasz online?”
Nie “jak często korzystasz z internetu.” Jak często to ukrywasz.
Zatajanie jest markerem klinicznym. We wszystkich badaniach nad uzależnieniami behawioralnymi — hazard, gaming, internet — ukrywanie zachowania przed innymi jest jednym z najsilniejszych predyktorów problemowego użycia. Nie samo zachowanie. Luka między tym, co robisz, a tym, co mówisz, że robisz.
W sierpniu 2025 firma WalkMe przebadała ponad 1000 amerykańskich pracowników w raporcie “AI in the Workplace.” Wynik: 48,8% pracowników przyznało się do ukrywania korzystania z AI w pracy. Wśród kadry zarządzającej C-suite — ludzi najbardziej upoważnionych do używania dowolnych narzędzi — 53,4% ukrywało swoje użycie. Wśród pracowników pokolenia Z 62,6% wykonało pracę przy pomocy AI, ale przedstawiło ją jako w pełni własną.
Połowa pracowników coś robi. Połowa to ukrywa.
Ten wzorzec ma nazwę w literaturze klinicznej. Ta nazwa to nie “optymalizacja workflow.”
Trzy warstwy ukrywania
Ukrywanie AI u programistów działa na trzech poziomach. Każdy głębszy, każdy trudniejszy do zauważenia od środka.
Warstwa 1: Pominięcie. Nie wspominasz o AI. Standup: “Zrefaktorowałem middleware.” Opis PR-a: “Uproszczenie obsługi błędów w serwisie auth.” Wszystko prawda. Wszystko niekompletne. Narzędzie, które napisało 80% kodu, nie pojawia się w żadnej komunikacji. To najczęstsza warstwa. Czuje się jak zwięzłość, nie jak nieszczerość.
Warstwa 2: Minimalizacja. Kiedy ktoś pyta wprost, bagatelizujesz. “No tak, użyłem Copilota do trochę boilerplate’u.” Ten boilerplate to była cała implementacja. Opisujesz pomoc AI jako drobne ułatwienie, nie jako podstawową metodę pracy. Trzy godziny promptowania to “szybki check.”
Warstwa 3: Substytucja. Aktywnie konstruujesz narrację, w której AI nie brało udziału. Dodajesz ręczne commity między blokami wygenerowanymi przez AI, żeby historia gita wyglądała organicznie. Przepisujesz output AI swoim stylem przed commitem. Uczysz się rozwiązania na pamięć, żeby móc je wytłumaczyć bez odniesienia do tego, jak je znalazłeś.
Warstwa pierwsza jest powszechna. Warstwa druga częsta. Warstwa trzecia to sygnał.
Dlaczego ukrywamy
Zatajanie nie jest przypadkowe. Mapuje się na konkretne lęki.
Zagrożenie kompetencji. Jeśli twój zespół dowie się, że użyłeś AI do 70% feature’a, czy to czyni cię programistą 70-procentowym? Racjonalnie — nie. Narzędzia nie umniejszają umiejętności. Ale uczucie jest realne. Badacze analizujący stygmatyzację narzędzi AI w medycynie odkryli, że lekarze oceniali kolegę korzystającego z AI istotnie niżej pod względem umiejętności klinicznych — nawet przyznając, że AI poprawiło dokładność. To uprzedzenie istnieje w każdym zawodzie. Nie wymyślasz sobie tego.
Błędna atrybucja wysiłku. Kultura programistyczna wciąż gloryfikuje harówkę. Nocne sesje. Sprytne rozwiązania. Debugowanie wykute w boju. AI kasuje widoczny wysiłek. Trzy godziny starannego promptowania, ewaluacji i integracji produkują ten sam diff w gicie co trzy godziny ręcznego kodowania. Ale jedna historia zdobywa szacunek. Druga dostaje “więc AI to zrobiło?”
Bezpieczeństwo zatrudnienia. Jeśli AI może robić twoją pracę, zarząd może się zastanawiać, po co ci płaci. Ten lęk jest mniej irracjonalny, niż brzmi. 53% kadry zarządzającej ukrywa własne użycie AI. Jeśli leadership ukrywa narzędzie, wszyscy poniżej odczytują sygnał: o tym się otwarcie nie mówi.
Problem narastania
Ukrywanie tworzy własną pętlę zwrotną.
Kiedy ukrywasz użycie AI, nie możesz rozmawiać o problemach z użyciem AI. Nie możesz powiedzieć “dwie godziny tkwiłem w pętli promptowania i nigdzie nie doszedłem,” bo przyznanie się do pętli oznacza przyznanie się do narzędzia. Nie możesz zgłosić, że kod generowany przez AI wymaga dodatkowej rewizji, bo zgłoszenie oznacza ujawnienie, ile kodu jest generowane przez AI.
Zespół traci sygnał. Gęstość bugów rośnie — badanie Uplevel z 2024 roku wykazało 41-procentowy wzrost błędów wśród użytkowników Copilota — ale nikt nie łączy tego z ukrytą zmienną. Koszty koordynacji rosną, ale źródło pozostaje niewidoczne. Manager widzi, że metryki idą bokiem, i nie potrafi zdiagnozować dlaczego, bo największa zmiana w workflow zespołu to ta, o której nikt nie mówi.
Izolacja narasta. Myślisz, że jesteś jedynym, kto spędza trzy godziny na debugowaniu halucynacji AI. Nie jesteś. Twój kolega dwa biurka dalej robił to samo wczoraj. Żaden z was o tym nie wspomni.
Równoległa historia Character.AI
Najbardziej wyrazista wersja tego wzorca pojawiła się poza oprogramowaniem. Character.AI — platforma chatbotowa popularna wśród nastolatków — wygenerowała falę badań nad zatajaniem. Użytkownicy ukrywali korzystanie przed rodzicami. Tworzyli alternatywne konta. Kompulsywnie czyścili historię przeglądarki. Funkcje bezpieczeństwa platformy wymagały od nastolatków dobrowolnego włączenia nadzoru rodzicielskiego — decyzja projektowa zakładająca, że populacja najskłonniejsza do ukrywania dobrowolnie się ujawni.
Analogia nie jest dokładna. Programiści to nie nastolatkowie. Narzędzia AI do kodowania to nie chatboty. Ale mechanizm zatajania jest strukturalnie identyczny: zachowanie, które produkuje zarówno wartość, jak i wstyd, ukrywane przed najbliższymi osobami, racjonalizowane jako prywatność zamiast rozpoznane jako sygnał.
Pytanie nie brzmi, czy używasz AI. Pytanie brzmi, czy potrafisz o tym szczerze rozmawiać.
Rozpoznanie
Pięć pytań. Odpowiedz sobie w myślach.
- Czy w tym tygodniu opisałeś pracę wygenerowaną przez AI jako swoją na standupie, w PR-ze albo w rozmowie?
- Kiedy ktoś pyta, jak rozwiązałeś problem, czy edytujesz kroki z AI?
- Czy kiedykolwiek przepisałeś output AI specjalnie po to, żeby nie wyglądał na wygenerowany przez AI?
- Czy wiesz, ile godzin spędziłeś z narzędziami AI wczoraj? Czy podzieliłbyś się tą liczbą ze swoim team leadem?
- Gdyby twoja firma jutro opublikowała statystyki użycia AI każdego pracownika, czy czułbyś się odsłonięty?
Jeśli trzy lub więcej trafiło — nie koniecznie “tak”, ale to specyficzne drgnięcie rozpoznania — jesteś w tym wzorcu.
Co spróbować
Zatajanie pęka, kiedy ktoś idzie pierwszy.
Wymień narzędzie na jednym standupie w tym tygodniu. Nie spowiedź. Nie przemowa. “Użyłem Claude’a do scaffoldu migracji, potem sam przepisałem logikę rollbacku.” Rzeczowo. Konkretnie. Krótko. Zauważysz dwie rzeczy: nikomu nie zależy tak bardzo, jak się bałeś, i za drugim razem jest łatwiej.
Zmierz lukę. Przez tydzień notuj różnicę między faktycznym użyciem AI a tym, co komunikujesz. Godziny spędzone vs. godziny raportowane. Pliki wygenerowane vs. pliki przypisane. Sama luka jest daną. Bez oceniania. Tylko pomiar.
Oddziel narzędzie od tożsamości. Cieśla, który używa gwoździarki pneumatycznej zamiast młotka, nie jest gorszym cieślą. Umiejętność polega na tym, żeby wiedzieć, gdzie wbić gwóźdź, nie na tym, jak mocno machasz młotkiem. Jeśli ta zmiana perspektywy brzmi intelektualnie prawdziwie, ale emocjonalnie pusto — to wzorzec zatajania chroni sam siebie.
Zapytaj zespół. Nie “czy ktoś używa AI?” — każdy powie tak. Zapytaj: “Ile godzin spędziliście z narzędziami AI w tym tygodniu?” Cisza powie ci wszystko o wzorcu ukrywania w twoim zespole.
Quiz mierzy Negatywne Konsekwencje jako jeden z sześciu wymiarów. Zatajanie żyje tam — obok napiętych relacji, pominiętych posiłków i żalu. Sprawdź się w quizie. 14 pytań. 3 minuty. Anonimowo. Nikt nie pozna twojego wyniku.
Chyba że zdecydujesz się nim podzielić.
Źródła:
- Young, K.S. (1998). Internet Addiction Test (IAT). Pytanie 18: “Jak często próbujesz ukryć, ile czasu spędzasz online?” Wydane przez Stoelting Co.
- WalkMe / SAP. (2025, sierpień). “AI in the Workplace 2025 Survey.” 1000+ pracowników w USA. Fortune: 48,8% ukrywa użycie AI; 53,4% C-suite; 62,6% Gen Z przedstawia pracę AI jako własną.
- Uplevel Data Labs. (2024). “Gen AI for Coding Research Report.” 800 programistów, GitHub Copilot. 41% wzrost liczby błędów. resources.uplevelteam.com
- Fisher Phillips. (2025). “Your Employees are Hiding Their AI Use From You.” fisherphillips.com
- Transparency Coalition. (2025). Zachowania zatajające wśród nieletnich użytkowników Character.AI. transparencycoalition.ai
OnTilt to projekt badawczy analizujący wzorce behawioralne w pracy z AI. Quiz to narzędzie autorefleksji, nie instrument diagnostyczny. Więcej na stronie O projekcie.