Talent Show w Korpo

Jak piszą mądre osoby, najcenniejszym zasobem, jaki organizacje posiadają, jest zasób ludzki. Oczywiście to pewna przesada, bo jak ktoś jest szejkiem w emiratach i ma pola pełne ropy naftowej, to zarabia na ropie, a nie na jakichś zasobach ludzkich. Ale jako, że mieszkamy w Polsce i raczej u nas ropy niewiele, to musimy bazować na tym, że nasz zasób ludzki będzie lepszy, bardziej kreatywny i kompetentny niż zasób ludzki u konkurencji.

Prezesi i działy HR różnych firm biorąc pod uwagę to, że przewagę konkurencyjną ich przedsiębiorstw zapewniają właśnie zasoby ludzkie (a nie paliwa kopalne) w ostatnich czasach coraz częściej uruchamiają w organizacji tzw. programy talentowe. Programy talentowe to inwestycja właśnie w zasoby ludzkie.

Mam przyjemność w wielu z programach uczestniczyć jako konsultant. Często też widzę, jak są przeprowadzane. I cóż… czasem są one robione bez ładu i składu. Poniższy post będzie o tym, jak do takiego programu się zabrać, żeby był w nim zarówno ład, jak i skład.

TALENT, CZYLI KTO?

No właśnie. Pytanie niby głupie, a jednak nie do końca. Często talent jest utożsamiany z sukcesorem, czyli osobą, która w niedalekiej przyszłości ma awansować i zajmować wyższe stanowisko w hierarchii organizacji. Ale nie zawsze tak jest. Czasami mówi się o talentach eksperckich, czyli osobach, które są ważne dla organizacji, ale nie ma w planie, aby pięły się po szczeblach kariery.  

Zatem podzielmy talenty na menedżerskie i eksperckie. Talent menedżerski ma iść „w górę” i zarządzać ludźmi. Talent ekspercki ma być tu gdzie jest, ale poszerzać swoje kompetencje i umiejętności w swojej specjalizacji.

Eksperci nie są do końca zgodni, czym talent (menedżerski lub ekspercki) powinien się charakteryzować. Są różne teorie i różne cechy, które opisują osobę uważaną za talent.

Spróbuję to jakoś ogarnąć, podsumować i wskazać, jakie narzędzia selekcyjne mogą być przydatne w diagnozowaniu osób do programu talentowego.

CECHY TALENTU

Generalnie i ogólnie, najważniejszą cechą, którą talent powinien posiadać jest potencjał. Potencjał to możliwość rozwoju w danym kierunku, a nie to, co dana osoba już wie i umie.

Zasadniczo można ludzi określić na dwóch skalach. Jedna skala dotyczy tego, co kto wie i umie, a druga skala dotyczy potencjału. Z badań, które miałem przyjemność realizować wychodzi,  że te dwie skale się nie pokrywają. Interesujące, że nie ma między nimi korelacji, lub jest bardzo nieduża. Pisałem już o tym trochę tutaj.

Jak na obu skalach wygląda noworodek?

Ano na skali wiedzy i umiejętności ma wynik około 1 (w skali od 1 do 10), ale na skali potencjału pewnie ma wynik bardzo wysoki. Dlaczego? Ano dlatego, że czynniki środowiskowe mogą sprawić, że posiądzie on pewne zalety, przymioty charakteru, zdolności, które ułatwią mu przyswojenie niezbędnych kompetencji. Oczywiście jest to bardzo trudna sztuka i rodzicom, nauczycielom rzadko się udaje. Ale potencjał w każdym razie jest.

Jak na obu skalach wygląda osoba, dajmy na to 60-letnia z dużym doświadczeniem zawodowym?

Pewnie na skali wiedzy i umiejętności potrzebnych w pracy jest wysoko. Doświadczenie nauczyło ją wielu niezbędnych kompetencji. Ale na skali potencjału zapewne jest nisko (choć oczywiście są tu duże różnice indywidualne pomiędzy osobami). Jest nisko, gdyż generalnie naszemu mózgowi Z biegiem lat coraz trudniej uczyć się nowych rzeczy.

KOGO WYBRAĆ DO PROGRAMU?

W naszych ukochanych  korporacjach również mamy do czynienia z ludźmi którzy

  1. Są nisko na skali potencjału i nisko na skali kompetencji
  2. Są nisko na skali potencjału i wysoko na skali kompetencji
  3. Są wysoko na skali potencjału i nisko na skali kompetencji
  4. Są wysoko na skali potencjału i wysoko na skali kompetencji

Pytanie – których bierzemy do programu talentowego?

Tak – dobrze myślicie 😊 Bierzemy tych z potencjałem! Tym, co osoba na ten moment wie i umie przejmujemy się mniej. Dlaczego? Ano dlatego, że po to jest program talentowy, aby ktoś się rozwinął i w jego końcowym efekcie był na skali kompetencji wysoko. Lub też dla tych, co już są wysoko, aby byli jeszcze wyżej.

Obrazowo rzecz ujmując to program talentowy jest źródłem wody, a nasi pracownicy to naczynia. Przed udaniem się do źródła (przystąpieniem do programu) będziemy sprawdzać, które naczynie jest pojemniejsze (czyli jaki ma potencjał), niż które ma w tym momencie więcej wody (bo ta informacja jest na ten moment nieważna). Weźmiemy pojemniejsze i do niego będziemy lać wodę, bo to jest efektywniejsze działanie. Bez sensu do źródła brać naczynie wypełnione po brzegi wodą.

Teoria teorią, ładnie brzmi, a praktyka praktyką i na co komu jakieś teorie. Otóż spotkałem się ostatnio z przykładem selekcji do programu talentowego, w którym kandydatów poddawano procedurze Assessment/Development Centre (AC/DC). AC/DC dla przypomnienia to działanie, w którym pracownik ma za zadanie wcielać się w różne role i jest oceniany, jakie zachowania (kompetencje) w tych rolach przejawia. Wynik AC/DC decydował, kto do programu miał się dostać. Na koniec programu talentowego zaplanowano natomiast jego uczestnikom dać test osobowości!

W istocie wszystko na opak!!!

Najpierw badano, ile w naczyniu jest wody, zamiast jego pojemności. Pojemność naczynia mierzono dopiero na koniec, po powrocie ze źródła…

JAKIMI NARZĘDZIAMI MIERZYĆ TALENTY?

I tu zbliżamy się do puenty wpisu. Mianowicie, jakich narzędzi należy użyć do pomiaru skali potencjału kandydatów do programu talentowego.

Po kolei więc.

Na początku, jak się nam kandydaci zgłaszają do programu talentowego, to do stu piorunów, nie róbcie im AC/DC!

Bo po pierwsze jest to drogie i czasochłonne, a po drugie bez sensu! Bez sensu, dlatego że AC/DC mierzy kompetencje na tu i teraz, ale nie potencjał. Np. jeśli ktoś ma wysoki wynik w symulacjach AC/DC, to nie znaczy, że się rozwinie w programie. Może to już jest jego limit i pozbawione logiki jest pompowanie pieniędzy w rozwój osoby, która „dalej nie pójdzie”.

Warto natomiast kandydatów do programu talentowego przebadać pod kątem ich potencjału. Rekomenduję do badania dwa obszary. Pierwszy to osobowość a drugi zdolności poznawcze. To jest właśnie potencjał. Obie rzeczy mierzymy testami plus możemy się też posiłkować wywiadem.

Z testów osobowości polecam na przykład testy Hogana, SHL albo test BIP. Warto w wynikach zwrócić uwagę szczególnie na motywację osoby do rozwoju, ambicję, elastyczność, odporność na stres czy też pozytywne nastawienie na innych. Szczególnie istotna jest (i tu warto zastosować wywiad), motywacja tej osoby do wzięcia udziału w programie. Zdarza się, że tą motywacją jest szef, który w programie każe wziąć udział. Wtedy kandydata trzeba, dla jego dobra, odrzucić. Rozwój kogoś na siłę, to tak jakby uczyć rybę chodzenia po drzewach.

Zdolności poznawcze natomiast warto mierzyć na dość ogólnym poziomie. Może to być test Ravena albo testy zdolności poznawczych oferowane przez SHL lub Talent Q. Im wyższe zdolności poznawcze, tym wyższy potencjał do tego, że osoba „połapie” co trzeba w programie, a także  będzie szybko i sprawnie analizować materiał, z którym pracuje.

A co z AC/DC? Nie zapomniałem o tym.

To jest super metoda, ale dla tych, co już do programu weszli. Wówczas może służyć jako ewaluacja programu – czyli robimy AC/DC na początku i na końcu programu sprawdzając, czy przyrost kompetencji nastąpił. Jest to też świetna metoda rozwoju kompetencji np. w formie DLC (o DLC było pisane tutaj).

Podsumowując:

  1. Najpierw badamy potencjał kandydatów testami oraz wywiadem.
  2. Potem, jak już kandydatów wybierzemy, robimy im AC/DC albo DLC. Na tej podstawie sprawdzamy silne strony i obszary do rozwoju, nad którymi pracujemy w trakcie programu talentowego.
  3. Na sam koniec robimy znowu AC/DC. Porównujemy wyniki do poprzedniego AC/DC i sprawdzamy czy nasz program był skuteczny (na drugim poziomie w modelu Kilkpatricka), czyli czy ludzie są bardziej kompetentni niż byli uprzednio.

Ludzie! Nie korzystajcie z AC/DC jako narzędzia do selekcji kandydatów do programu talentowego!

Coś na kształt Biblii dla procesów AC/DC

 

Praca psychologa organizacji, albo osoby zajmującej się HR jest niezwykle łatwa. Już o tym trochę pisałem tutaj.  Jak wiecie, trudno ją poddać falsyfikacji. Czyli co byśmy nie zrobili, efekt naszej pracy jest bardzo trudny do zauważenia. Najczęściej też pojawia się w długoterminowej perspektywie. Właściwie, mogę sobie wyobrazić osobę pracującą w HR, która nie przyczyniła się w jakimkolwiek stopniu do zwiększenia efektywności przedsiębiorstwa. Jednocześnie może przy tym być uważana za całkiem dobrego pracownika.

W pracy HRowca, psychologa biznesu, trenera, czy konsultanta nie ma także zbyt wielu wytycznych, wedle których powinien on postępować. Może np. robić rekrutację pytając kandydatów o rzeczy kompletnie z pracą niezwiązane i wybierać ich np. na podstawie tego czy są blondynami czy brunetami. O ile jednak nie łamie prawa (np. nie pyta o orientację seksualną albo poglądy polityczne), nikt nie jest w stanie rekrutującemu nic zarzucić (oprócz oczywiście niekompetencji, którą na pierwszy rzut oka trudno wykryć, bo rozmowy rekrutacyjne są z zasady poufne).

Jako że nie ma standardów dla naszej pracy ustalanych odgórnie (np. jakimiś ustawami albo tego typu kwestiami), to od nas, jako środowiska zależy jej regulowanie. Przecież istotne jest abyśmy pracowali dostarczając jak najwyższą jakość przy zachowaniu etycznych aspektów działania.

 

ASSESSMENT/ DEVELOPMENT CENTRE (AC/DC)

O takich standardach chcę dziś napisać. Dotyczą one pewnej dziedziny z roku na rok nabierającej popularności. Chodzi o procesy Assessment/ Development Centre (AC/DC). AC/DC to zbiór symulacji, w których uczestniczy osoba badana. Zachowanie osoby badanej w trakcie symulacji jest oceniane przez tzw. asesorów i na podstawie tych ocen formułowane są wnioski. Wnioski najczęściej dotyczą selekcji (np. który kandydat najlepiej wypadł) albo rozwoju (np. co u osoby badanej jest silną a co słabą stroną). Jak ktoś chce więcej poczytać na temat to Wikipedia służy: //pl.wikipedia.org/wiki/Assessment_center

AC/DC jest przeprowadzane coraz częściej w polskich organizacjach. I często niestety jest przeprowadzane bez dbałości o to, aby przynosiło sensowne, czyli wymierne efekty. Czasem natomiast zdarzają się przypadki działania nieetycznego. Takie praktyki są nieskuteczne i niosą ryzyko  wyrządzenia sporej krzywdy osobom badanym. Dlatego niezwykle istotne jest, aby każdy projekt AC/DC prowadzić starannie z poszanowaniem pewnych zasad. A zasady zostały wydyskutowane i spisane.

 

MIĘDZYNARODOWE WYTYCZNE PROWADZENIA SESJI AC/DC

Dokument, w którym zostały spisane to “Guidelines and Ethical Considerations for Assessment Center Operations”. Jest to papier, który sygnują praktycy i teoretycy AC/DC z całego świata. Ostatnia jego wersja jest z 2014 roku. I cóż – uważam, że bezwzględnie powinniśmy się do tych wytycznych stosować. Zapewniają one jakość procesu (tj. dobry pomiar kompetencji) jak i uwzględniają aspekty etyczne pracy z osobami badanymi.

Dociekliwych zachęcam, aby zapoznali się z pełną treścią wytycznych. Mniej cierpliwym natomiast przytoczę 4 przykłady konkretnych rekomendacji jakie są w dokumencie, a które często nie są przestrzegane w praktyce. Oto one:

1. Wykorzystanie różnorodnych metod w trackie AC/DC.

Jest to bardzo ważny postulat. Wytyczne mówią o tym, aby zawsze AC/DC zawierało kilka symulacji plus jakiś element niesymulacyjny (np. testy lub wywiad). Na własne oczy widziałem natomiast AC/DC składające się z 1 ćwiczenia symulacyjnego. Na podstawie tego ćwiczenia wybierano kandydatów do pracy. Równie dobrze rekrutujący mogliby rzucać kostką i na tej podstawie wybierać kandydatów. Trafność i rzetelność, nawet najlepszego ćwiczenia, jest bardzo niska. To tak jakby wywiad rekrutacyjny zawierał tylko 1 pytanie. Jedynie zastosowanie kilku metod zapewnia dobrą diagnozę kandydata.

2. Grupa asesorów powinna być różnorodna

Im więcej par oczu obserwuje badanych, tym większy obiektywizm procesu. Dodatkowo, świetnie, jeśli asesorzy mają różne doświadczenia, płeć, stanowiska. Daje to lepszą perspektywę i pozwala widzieć więcej. Niestety widziałem AC/DC gdzie 1 osobę oceniał tylko 1 asesor. Jeśli asesor nie był zaburzony, i nie posiadał rozszczepienia osobowości (a chyba nie miał…), to o różnorodności asesorów nie może być w tym przypadku mowy.

3. Cel AC/DC powinien być badanym określony i ściśle przestrzegany

Jeśli robimy AC/DC w celach rozwojowych, to róbmy je w celach rozwojowych, a nie w celach selekcyjnych i rozwojowych. Byłem kiedyś świadkiem niefajnej sytuacji, kiedy badanym zakomunikowano, że AC/DC służy jedynie do celów rozwojowych. To, jak wypadną w ćwiczeniach ma służyć do dopasowania programów rozwojowych do grupy. Po czym okazało się, że na podstawie ocen asesorów, po fakcie,  dokonywano selekcji do programu talentowego. To bardzo nie w porządku. Badanych w ogóle o tym nie poinformowano – do tej pory nie wiedzą, że zostali oszukani.

4. AC/DC powinno zostać poddane ewaluacji

Czyli musimy wiedzieć, czy spełniło swoją rolę czy nie. I nie wystarczy tu jedynie ustna opinia np. szefa, który mówi, że spełniło. Potrzeba do tego dowodów, w postaci obiektywnych wskaźników. Tak jak pisałem już tutaj, taka praktyka to z jednej strony rzadkość, a z drugiej konieczność.

 

Marzy mi się sytuacja, że wytyczne będą brane poważnie pod uwagę przy tworzeniu i realizacji sesji AC/DC zawsze i wszędzie. Ale nie dlatego, że kocham regulaminy i chcę, żeby jak najwięcej rzeczy było spisanych jako standardy. Jedynie wtedy ma to sens, jeśli te standardy przyczyniają się do zapewnienia jakości działania i zapobiegają nieetycznym praktykom. Tak jest w tym przypadku.

 

Związki między osobowością i zachowaniem

 

Mam ostatnio spory zgryz z pewnym tematem. Teoria wskazuje, że dane powinny ujawnić pewien schemat.

Niestety dane ignorują moje oczekiwanie i pokazują, że żadnych schematów nie ma.

To jeden z najgorszych możliwych scenariuszy dla osoby, która się bawi w badania… Hipoteza, która, jestem pewien, że jest prawdziwa, nie wytrzymuje próby empirycznej. Więc albo coś jest nie tak z badaniem, albo coś nie tak z hipotezą.

 

POMIAR W AC/DC A POMIAR TESTAMI PSYCHOLOGICZNYMI

Szczegółowo chodzi o pomiar korelacji pomiędzy wynikami kompetencji uczestników sesji Assessment/ Development Centre (AC/DC) a wynikami testów psychologicznych.

W Assessment/ Development Centre dajemy ludziom pewne zadania symulacyjne, w których wcielają się oni w konkretne role. Na podstawie ich zachowania w tychże rolach oceniamy, jaki poziom kompetencji osiągnęli. Np. zadaniem jest zagrać szefa w rozmowie z podwładnym, który nie osiągnął założonych celów. Badany rozmawia z podstawionym aktorem, który gra podwładnego. Zachowania osoby badanej są spisywane i kategoryzowane do odpowiednich kompetencji. W scenie z podwładnym np. możemy mierzyć w jaki sposób osoba badana motywuje podwładnego. Czy np. krzyczy na niego i stosuje presję, czy też zachęca, a może ignoruje temat niesatysfakcjonujących wyników. Zatem przedmiotem zainteresowania badaczy jest zachowanie. To, co osoba robi, lub czego nie robi.

Inaczej jest w testach psychologicznych. Tu nie możemy wprost zobaczyć zachowania. Osoba badana testem jedynie poprzez zbiór odpowiedzi testowych ujawnia swoje preferencje, przekonania, wartości, cechy osobowości, inteligencję, temperament i milion innych rzeczy, które testy mogą mierzyć. Zatem w testach zachowania nie mierzymy – jedynie pewne cechy psychologiczne, na owe zachowania wpływające. Np. osoby, które w teście uzyskały wysokie wyniki w testach inteligencji rozumianej jako zdolność do wyciągania wniosków, powinny w AC/DC wypaść lepiej w kompetencji MYŚLENIE ANALITYCZNE niż osoby, które uzyskały w teście niskie wyniki. Logiczne, no nie?

 

Tylko jest pewien problem… Rzadko tak wychodzi.

 

Przede wszystkim jest bardzo mało badań na ten temat. A na dodatek są one dość tendencyjne. Najczęściej związki wychodzą producentom testów. Twierdzą oni, że ich testy korelują z wynikami z AC/DC. Ale są to ekstremalnie nieobiektywne opinie. Rzetelnych, miarodajnych badań jak na lekarstwo.

 

Postanowiłem więc samodzielnie się tematem zająć. Mam dostęp do dużej liczby danych – z procesów AC/DC w których były wykorzystywane testy psychologiczne. Najczęściej były to testy osobowości (takie jak np. TIC czy HOGAN) albo testy stylów działania (np. Test Taktyk Wpływu). Zakładałem, że wyniki kompetencji muszą korelować z wynikami testów. No bo jeśli ktoś jest, dajmy na to, nastawiony osobowościowo na współpracę, to musi, siłą rzeczy, uzyskiwać lepsze wyniki w kompetencji WSPÓŁPRACA w Assessment/ Development Centre. Analogii można by mnożyć. Nasze zachowanie (czyli to co mierzymy w AC/DC) jest wynikiem wielu rzeczy (o tym pisałem tutaj). Niemniej jednak osobowość, intelekt, temperament na nie wpływa. Nie ma innej opcji.

 

WYNIKI

Jakież było moje zdziwienie, gdy okazało się, że takie korelacje są szczątkowe! Nie będę tu w całości przytaczał materiału z wynikami, bo jest tego bardzo dużo. Ale generalnie, to co wyszło, w ogóle nie wspiera hipotezy o tym, że wyniki testów psychologicznych (szczególnie testów osobowości) korelują z wynikami AC/DC. Związki jedynie pokazywały się pomiędzy kompetencjami społecznymi takimi jak współpraca czy komunikacja a sposobami wywierania wpływu mierzonymi Testem Taktyk Wywierania Wpływu (więcej o tych taktykach znajdziecie tu i tu). Jest to test, który mierzy coś na kształt kompetencji. Pyta o to, z jaką częstotliwością dane zachowanie prezentujemy. I okazuje się, że sporo tych taktyk wpływu ma powiązania z kompetencjami. Taktyki wpływu korelują także z osobowością, ale już osobowość z kompetencjami, wedle uzyskanych przeze mnie wyników, nie koreluje.

 

Długo się zastanawiałem nad wyjaśnieniem tego zjawiska. Dwie możliwe interpretacje przychodzą mi do głowy.

 

WYJAŚNIENIE NR 1

Błąd pomiaru w testach oraz błąd pomiaru w AC/DC nakładają się na siebie i fałszują wyniki.

Musimy niestety brać pod uwagę, że nasza procedura badawcza nie jest wysokiej jakości. Standardowy błąd pomiaru w testach jest mniej więcej znany i wiadomo, że wpływa na osiągane w testach wyniki. Sam ten błąd niekiedy jest dość spory, dlatego zawsze na wyniki testowe należy patrzeć z pewną dozą krytycyzmu i nie traktować ich jako wyroczni. Jeśli dodamy do tego błędu, błąd pomiaru w AC/DC, który jest nie znany, to nałożenie ich na siebie rozmywa wynik ostateczny. Dlaczego w AC/DC nie znamy błędu pomiaru? Ano dlatego, że każda sesja AC/DC jest niejako osobnym bytem, osobnym badaniem. Nie da się wobec tego przeprowadzić szerokich badań walidacyjnych, czyli takich w których sprawdzamy jakość zastosowanego narzędzia (w tym przypadku jakość AC/DC). W mojej opinii, jest to także badanie bardziej jakościowe niż ilościowe. Pomimo prób standaryzacji i obiektywizacji tego procesu, wiele zależy od interpretacji badaczy. Czyli generalnie, korelowanie metody ilościowej z jakościową nie ma sensu i nigdy nie wyjdą żadne korelacje w tym zakresie.

 

WYJAŚNIENIE NR 2

Assessment/ Development Centre mierzy kompetencje, ale nie mierzy zachowania.

Pamiętacie model zachowania, o którym pisałem tutaj? Przypomnę główny schemat tego modelu:

Jeśli przyjmiemy, że osobowość to nasza MOTYWACJA WEWNĘTRZNA, to zakładanie że będzie ona korelowała z KOMPETENCJAMI jest nieuzasadnione. Obie te rzeczy wpływają na ZACHOWANIE, ale są od siebie niezależne.

Posłużę się przykładem. Przyjmijmy, że jest osoba, która osobowościowo jest silnie nastawiona na współpracę i zmierzyliśmy to testem psychologicznym. W Assessment/ Development Centre wypada jednakże w kompetencji WSPÓŁPRACA słabo. Czyli jej kompetencja w tym zakresie jest niewykształcona. Ta osoba chce, ale nie umie.

Druga osoba odwrotnie. W teście wyszło, że jest megaindywidualistycznie nastawiona, uwielbia rywalizować. A w AC/DC wyszedł jej wysoki wynik we WSPÓŁPRACY. Absurd? Tylko pozornie.

Jak to wyjaśnić? Muszę przyjąć w tym miejscu pewne założenie, które znacznie uprości rozumowanie. Otóż zakładam, a popieram to wieloletnimi obserwacjami procesów AC/DC, że w tych procesach sporadycznie spotyka się ludzi, którzy są niezmotywowani, do pokazywania swoich kompetencji. Znaczna większość uczestników natomiast jest przemotywowana, zestresowana i chcąca wypaść jak najlepiej. Zatem ich MOTYWACJA jest w przypadku sesji AC/DC zawsze wysoka. To co mierzymy testami natomiast to motywacja długoterminowa, taka na co dzień. Czyli osoba, która w normalnych warunkach ma gdzieś współpracę, bo osobowościowo preferuje co innego, w trakcie AC/DC się „zepnie” i jeśli potrafi ujawniać zachowania wskazujące na jej kompetencję współpraca, to je ujawni.

Ale zakładanie, że na co dzień, ta osoba będzie je ujawniać jest nieuzasadnione.

Inna kwestia to interpretacja wyników osoby pierwszej. Tej co chce, ale nie umie. Otóż, okazuje się,  że sama chęć mało znaczy, aby nauczyć się kompetencji. Być może znacznie ważniejszą rolę odgrywa środowisko, w którym osoba przebywa, zdolność do uczenia się niż to, że się chce. Nabywanie umiejętności społecznych na pewno jest uwarunkowane talentem do ich nabywania. Jeśli ktoś ma ten talent bardziej rozwinięty, to nawet jak nie chce, to się np. poprzez obserwację nauczy, na czym polega współpraca i w warunkach nienaturalnych, takich jak AC/DC tę umiejętność (kompetencję) okaże.

 

NAUKA NA PRZYSZŁOŚĆ

Jaka nauka płynie na przyszłość z tego quasi-badania, które wykonałem?

Dla mnie prosta – musimy (bez żadnych wyjątków!), projektując sesje AC/DC obowiązkowo mierzyć oprócz kompetencji także inne czynniki psychologiczne testami.

Dlaczego?

Bo po pierwsze, AC/DC ma pewien, prawdopodobnie dość duży błąd pomiaru. Testy też mają błąd pomiaru. Zatem im więcej metod wykorzystamy, tym ten błąd pomiaru będziemy mogli niwelować. To odwrotna sytuacja jak w badaniu, które powyżej opisywałem, kiedy błąd się nakładał. Ja metody sprzęgłem, więc błąd się nasilił. Jeśli natomiast każdy wynik traktujemy osobno (osobno wynik testu, osobno wynik kompetencji, osobno wynik z wywiadu itp.) to ogólnie błąd z całego procesu będzie mniejszy.

I po drugie – AC/DC mierzy coś innego (czyli KOMPETENCJE) i testy osobowości mierzą coś innego (czyli MOTYWACJĘ WEWNĘTRZNĄ). Obie te rzeczy wpływają na to jak się osoba zachowuje w pracy. Skorzystanie tylko z jednej metody, daje nam niepełny obraz osoby badanej.

Zatem jakość z zastosowania tych dwóch metod razem znacznie przewyższa jakość stosowania tylko jednej z nich.

Jeśli kogoś rozwijasz, na litość, nie oceniaj go!

 

Od jakichś 10 lat, mniej lub bardziej, jestem zaangażowany w różne działania związane z rozwijaniem ludzi. Miałem okazję współpracować z wieloma organizacjami w tym obszarze. Małymi, dużymi, prywatnymi, publicznymi, lista jest bardzo długa.

 

WARUNKI SKUTECZNEGO ROZWIJANIA KOMPETENCJI

Większość organizacji w miarę dobrze rozumie, czym jest rozwój pracowników i jakie warunki powinny zachodzić, aby był efektywny. Jednym z nich jest bezpieczeństwo i komfort psychiczny osób które się rozwijają.

Czemu jest to potrzebne?

Ano po to, że jeśli osoba ma wchodzić w tzw. strefę dyskomfortu (co jest wielokroć dość istotnym warunkiem rozwoju kompetencji), to nie może się tego bać. Lub też nie powinna się bać nadmiernie. Lęk nas skłania do tego, że się wycofujemy i zamykamy w naszej postawie. Rozwój zaś wymaga elastyczności, eksperymentowania. Odwagi.

A co w nas powoduje podwyższony poziom stresu i lęku?

Jednym z głównych czynników, które tak czynią jest sytuacja oceny. I jest to dowiedzione empirycznie, i jest to zgodne z naszymi doświadczeniami. Kto się nie stresował na maturze czy egzaminie na prawo jazdy niech podniesie rękę.

Odwaga jest także konieczna, ponieważ musimy w sytuacji rozwojowej zachować się inaczej niż dotychczas się zachowywaliśmy. Spróbować czegoś nowego, do tej pory nieznanego. Albo znanego, ale nieprzetestowanego. Wynik takiego nowego działania jest bardzo niepewny. Może coś z tego wyjdzie, a może poniesiemy porażkę. Ale tak czy owak się czegoś nauczymy. Nawet jak np. na szkoleniu zagramy jakąś scenkę i ją kompletnie „położymy” to już będziemy coś wiedzieć i umieć więcej na drodze rozwoju. A nie od razu Kraków zbudowano i nawet częściej nam się coś nie uda niż uda.

Podsumowując. Kiedy ukierunkowujemy nasze działanie na rozwój to musimy mieć margines bezpieczeństwa psychicznego na to, aby popełniać błędy.

 

MIESZANIE ROZWOJU I OCENY W JEDNYM

Od czasu do czasu jednak dane mi jest słyszeć z ust osób zarządzających organizacjami: „A czy trener nie mógłby też popatrzeć kto z moich menedżerów ma potencjał na awans”. Albo: „W tym Development Centre chcemy ich rozwijać i o to nam chodzi. Ale oczywiście zarząd chce cyfry, więc przy okazji oceńmy każdego liczbowo jaką ocenę ma w danej kompetencji”.

Jak wspomniałem, dzieje się to rzadziej niż częściej. Ale jednak się dzieje.

I sądzę, że oględnie mówiąc nie jest to najlepsza praktyka.

I to nie dlatego nawet, że jest to jakoś tak nie w porządku wobec osób rozwijanych/ badanych. Nie jestem specjalistą od etyki i nie chcę się tu wypowiadać z punktu widzenia moralności. Jestem badaczem i się wypowiem z punktu widzenia rzetelności pomiaru.

A rzetelność pomiaru to coś chyba najważniejszego, jak chcemy coś sensownie mierzyć. Mówi o tym, czy narzędzie badawcze jest dobrze skalibrowane. Np. dzisiaj rano termometr w moim aucie lekko zaczął wariować. Na dworzu było około 10 stopni, a on wskazywał ryzyko lodu na jezdni i pokazywał 2 stopnie Celsjusza. Czyli pomiar przez termometr samochodowy był nierzetelny. Narzędzie było po prostu do bani. Pomiar temperatury i pomiar w psychologii to w gruncie rzeczy bardzo podobne procesy.

Jeśli mamy zamiar wykonać pomiar nierzetelny, to lepiej żebyśmy go w ogóle nie robili. Tezę tę kieruję do osób, które chętnie by piekły dwie pieczenie na jednym ogniu, czyli rozwijały i oceniały. Bo taki pomiar właśnie spełnia znamiona nierzetelności.

Jeśli się rozwijamy i eksperymentujemy to najczęściej nie prezentujemy swoich obecnych kompetencji. Ponieważ robimy coś zupełnie innego! To że nam nie wychodzi jest immanentnym składnikiem procesu rozwojowego. A więc mierzenie tego, co jest dla nas nowe i nieznane jest strzelaniem kulą w płot. Jak mierzyć kompetencje kolarskie osoby, która właśnie pierwszy raz wsiadła na rower???

Druga sprawa to fakt, że proces rozwojowy także zostaje zaburzony. Z powodu stresu i lęku, o którym pisałem na początku. Nie dość, że oceniamy nierzetelnie, to powodujemy że uczestnicy programu rozwojowego w ten rozwój tak się nie zaangażują, jakbyśmy ich nie oceniali. Czyli i uderzamy w rozwój, i uderzamy w ocenę.

Jaki wniosek z tego płynie?

Konkretny. Zarówno ocena kompetencji/ potencjału/ umiejętności pracowników jest bardzo ważna jak i rozwój tychże. Tylko nie można tego łączyć! Najlepiej zrobić ocenę na początku procesu rozwojowego, a potem w bezpiecznych warunkach rozwijać to, co z oceny wyszło. Ja wiem, to trochę więcej kosztuje czasu i być może pieniędzy niż zrobienie wszystkiego na raz. Ale przynajmniej ma szansę mieć jakiś sens.

Czy ujawniać badanym co mierzymy cd.

Ostatnio pisałem na temat tego, czy badanym warto ujawniać, jakie wymiary będą mierzone w trakcie sesji Assessment/ Development Centre. Jeśli mieliście okazje przeczytać tamten post, to wiecie, że jestem na tak. Uważam, że warto ujawniać co mierzymy. Takie podejście daje pewne plusy, a wątpliwości rozwiewają badania realizowane w tym temacie.

Aby wzmocnić tę tezę opowiem wam o moich doświadczeniach z realizacji sesji Development & Learning Centre (DLC).

Najpierw wyjaśnienie, co to takiego. Generalnie do tej pory panuje dość spore zamieszanie dotyczące nazewnictwa Assessment Centre/ Development Centre. Co osoba zajmująca się tym tematem, to inne zdanie czym Assessment Centre (AC), a czym Development Centre (DC) jest. Ja przyjmuję rozróżnienie po celu działania. AC ma cel selekcyjny. DC ma cel rozwojowy. Ich struktura jest natomiast bardzo podobna. Badany zarówno w AC jak i DC wykonuje określone ćwiczenia symulacyjne, w trakcie których jest przez wykwalifikowanych asesorów oceniany pod kątem kompetencji. Do tego najczęściej jest dołączony wywiad oraz bateria testów.

DLC posiada także cel rozwojowy, ale strukturalnie różni się od DC tym, że pomiędzy ćwiczeniami symulacyjnymi, osoba badana otrzymuje od asesorów informację zwrotną na temat tego jak „wypadła” do tej pory i co może zmienić w kolejnych symulacjach. Daje to uczestnikom DLC możliwość eksperymentowania w kolejnych zadaniach i, teoretycznie, możliwość uzyskiwania coraz lepszych wyników w kolejnych symulacjach.

Osobiście jestem fanem DLC. Uczestnicy takich sesji również bardzo często wskazują na ich wysoką przydatność i nowy sposób rozwoju kompetencji.

Ale jeden fakt nieco mnie zastanawia.

Od razu zastrzegę, że moje wnioskowanie oparte jest na obserwacji, a nie twardych danych liczbowych. Zatem można je traktować jako hipotezę, która powinna być zweryfikowana w rzetelnych badaniach. Do rzeczy jednak.

Teoretycznie, osoby badane po sesji informacji zwrotnej powinny w kolejnych symulacjach prezentować zachowania z wyższych poziomów kompetencji. Mówiąc po ludzku, coraz lepiej sobie z zadaniami radzić. Szkopuł w tym, że… wcale tak nie jest. Niektórzy, owszem, poprawiają się po uzyskaniu informacji zwrotnej. Istnieje też spora grupa, która się nie poprawia. A co najdziwniejsze, niemała liczba uczestników DLC, uzyskuje gorsze wyniki w zadaniach realizowanych po sesji informacji zwrotnej niż przed.

Poszukajmy wyjaśnienia tego stanu rzeczy.

Pierwsze jakie się nasuwa, jest takie, że coś nie tak musi być z informacjami zwrotnymi udzielanymi przez asesorów. Może słaby asesor po prostu? Ale z moich obserwacji wynika, że dzieje się tak w przypadku wszystkich asesorów. Czynnik, nazwijmy go asesorskim, wygląda na to, że nie gra istotnej roli.

A może w takim razie zmęczenie? Ludzie w kolejnych zadaniach generalnie wypadają gorzej, bo sesje DLC są wymagające i wyczerpujące. Efekt pogorszenia wyników jest niwelowany przez informację zwrotną, tak że ostatecznie zadania przed i po informacji zwrotnej są na podobnym poziomie. Tą hipotezę łatwo sprawdzić. Dowodem na jej prawdziwość byłby spadek wyników wraz z kolejnymi zadaniami realizowanymi w formule AC lub DC, bez sesji informacji zwrotnych pomiędzy zadaniami. Niestety taki spadek nie jest dowiedziony.

Zatem co może być przyczyną?

Trzecia hipoteza przemawia do mnie najbardziej i jest spójna z przekonaniem, że wiedza o tym co jest mierzone, nie wpływa istotnie na to, czy ktoś lepiej, czy gorzej sobie radzi z zadaniami symulacyjnymi w trakcie AC, DC czy DLC. Otóż, co tak naprawdę dowiaduje się uczestnik DLC w trakcie sesji informacji zwrotnej pomiędzy zadaniami? Dowiaduje się właśnie jakie kompetencje są mierzone i jakie zachowania z tychże kompetencji w poprzednich zadaniach ujawnił. W trakcie sesji informacji zwrotnej nie nabywa nagle nowych umiejętności, czy tychże kompetencji. Nabywa jedynie wiedzę o tym, co jest OK., a co nie jest OK. w tym co zrobił. Zadania po sesji informacji zwrotnej nam pokazują, że wiedza generalnie nie jest wystarczającym czynnikiem, aby doskonalić swoje kompetencje.

Występuje natomiast zmienność wśród uczestników DLC w zakresie poprawy wyników w kolejnych zadaniach. Tak jak pisałem, niektórzy radzą sobie lepiej w kolejnych zadaniach, niektórzy tak samo a niektórzy gorzej. To wspiera twierdzenie, że wiedza o mierzonych wymiarach zwiększa trafność teoretyczną pomiaru w AC, DC lub DLC. Trafność teoretyczna dotyczy tego, czy mierzymy właśnie to, co mierzyć powinniśmy, a nie coś innego. Jeśli badani wiedzą, co mierzymy, wówczas dopasowują swoje zachowania tak, aby ujawniać zachowania właśnie z tych kompetencji. Jak się okazuje, wcale to nie poprawia ogólnie ich wyników, ale za to zwiększa naszą trafność pomiaru.

Powtórzę zatem jeszcze raz. Warto ujawniać co mierzymy. Badani nie osiągną dzięki tej wiedzy lepszych rezultatów, ale za to ujawnią nam zachowania, właśnie z tych kompetencji, które mierzymy.