— outils de tests, exercices pratiques

Dans beaucoup de recrutements, on sait “tester” les hard skills (un diplôme, une techno, un outil)… mais on évalue les soft skills au feeling : “bon relationnel”, “esprit d’équipe”, “autonomie”. Résultat : des erreurs coûteuses — on recrute un profil très sympathique mais pas opérationnel, ou un expert technique brillant mais ingérable au quotidien.

Bonne nouvelle : soft skills et hard skills s’évaluent, à condition de le faire avec des outils adaptés : scorecards, entretiens structurés, work sample tests, mises en situation et barèmes.


1) Soft skills vs hard skills : de quoi parle-t-on exactement ?

Hard skills

Compétences techniques et mesurables : outils, méthodes, langage, réglementation, analyse, conduite d’une machine, maîtrise d’un CRM, etc.

Soft skills

Compétences comportementales et transversales : communication, collaboration, gestion du stress, sens des priorités, adaptabilité, leadership, esprit critique, etc.

Point clé : une soft skill n’est pas un trait de personnalité. C’est un comportement observable dans un contexte de travail.


2) Les principes d’une évaluation fiable (peu importe le poste)

A) “Ce qui n’est pas défini ne peut pas être évalué”

Avant l’entretien, clarifiez :

  • les 3–5 hard skills indispensables,
  • les 3–5 soft skills indispensables,
  • les preuves attendues pour chacune.

B) Utiliser une scorecard (5–7 critères max)

Sans grille, les interviewers évaluent chacun dans leur coin. Avec une grille, vous comparez “critère par critère” (et vous réduisez les biais).

C) Préférer les preuves au discours

  • Hard skills : démonstration, exercice, cas réel.
  • Soft skills : exemples concrets, situations vécues, comportements observables.

D) Standardiser un minimum

Mêmes thèmes de questions pour tous les candidats sur les critères clés, sinon vous ne comparez pas les mêmes choses.


3) Évaluer les hard skills : méthodes + exemples

1) Work sample test (le plus fiable dans la plupart des métiers)

Un exercice proche du job réel, noté avec une grille.

  • Marketing : analyser une landing page et proposer 5 améliorations priorisées.
  • Sales : construire un plan de discovery + objection handling sur un cas client.
  • Tech : exercice code court + explication de choix + tests.
  • RH : rédiger une annonce optimisée + scorecard + plan de sourcing.

2) Cas pratique “data / analyse”

Donnez une donnée / un brief, demandez une analyse et une recommandation.

  • Mesurez : raisonnement, rigueur, priorisation, clarté.

3) Simulation d’outil (quand le poste est outillé)

Exemples :

  • CRM : créer un pipeline simple, qualifier des leads, définir étapes.
  • Excel/Sheets : manipuler un tableau, sortir un KPI, faire une synthèse.
  • ATS : gérer un pipeline, rédiger un message, structurer un entretien.

4) Quiz / QCM (utile, mais jamais seul)

Un QCM peut tester de la connaissance “à froid”, mais il ne mesure pas la capacité à produire en conditions réelles. À utiliser comme filtre léger, pas comme décision finale.


4) Évaluer les soft skills : méthodes + exemples

A) L’entretien comportemental (méthode STAR)

La méthode STAR (Situation, Tâche, Actions, Résultat) force le candidat à parler de faits.

Exemple (autonomie) : “Racontez une situation où vous avez dû avancer sans consignes claires. Que faites-vous ?”

  • À écouter : prise d’initiative, clarification, priorisation, communication, résultat.

B) Les mises en situation “soft” (très efficaces)

On simule une interaction : conflit, priorisation, feedback, client mécontent, désaccord avec un manager.

Exemple (communication + assertivité) : “Un manager veut recruter en urgence sans scorecard. Vous faites quoi ?”

C) L’évaluation par preuves indirectes

  • Clarté de la communication écrite (mail, note, brief).
  • Capacité à structurer un problème (plan, priorités, compromis).
  • Qualité des questions posées (curiosité, sens critique).

D) Références (si c’est pertinent)

Bien faites, elles valident des soft skills : fiabilité, collaboration, responsabilité. Mal faites, elles deviennent du “copinage”. Utilisez un script court, standardisé, et concentrez-vous sur des comportements observables.


5) Exercices pratiques (prêts à utiliser)

Exercice 1 — Priorisation (soft + hard selon métier)

Consigne : “Vous avez 10 tâches urgentes, 2 deadlines, un imprévu. Comment priorisez-vous ?”

Ce que vous évaluez : logique, arbitrage, communication, gestion du stress.

Exercice 2 — Feedback difficile (soft)

Consigne : “Un collègue livre en retard et cela met l’équipe en difficulté. Comment lui donnez-vous du feedback ?”

Ce que vous évaluez : assertivité, empathie, recherche de solution, maturité.

Exercice 3 — Cas client mécontent (soft + rôle)

Consigne : “Un client critique votre travail. Vous avez 3 minutes pour répondre.”

Ce que vous évaluez : écoute, reformulation, calme, résolution.

Exercice 4 — Work sample court (hard)

Consigne : donner une tâche réelle miniaturisée (30–60 min max si possible) + barème.

Ce que vous évaluez : compétence opérationnelle, qualité, méthode.

Exercice 5 — “Explain your thinking” (hard + soft)

Consigne : “Expliquez votre démarche comme si vous formiez un junior.”

Ce que vous évaluez : clarté, pédagogie, rigueur, communication.


6) Outils de tests : comment choisir sans se faire piéger

Il existe des outils de tests (techniques, logique, langue, personnalité…). Ils peuvent aider, mais ils doivent être cadrés.

A) Ce qu’un bon test doit respecter

  • Pertinence : lié au job réel, pas “culture générale”.
  • Durée raisonnable : idéalement 20–45 min, sauf cas particuliers.
  • Transparence : expliquer pourquoi on le demande et comment il sera utilisé.
  • Accessibilité : éviter d’exclure inutilement certains candidats.
  • Barème : critères de réussite explicites.

B) Tests “personnalité” : prudence

Ils peuvent être utiles comme support de discussion, mais ne doivent pas devenir un verdict automatique. Préférez l’évaluation par comportements observables + mise en situation.

C) Outil ≠ décision

Un test doit être un élément parmi d’autres, et l’entreprise doit conserver une supervision humaine (surtout si des outils automatisés interviennent dans le tri).


7) Modèle de scorecard (copier/coller)

Conseil : 5–7 critères maximum, notés 1/3/5 avec définitions.

Exemple de scorecard mixte

  • Hard skill 1 : [compétence clé] — note (1/3/5) — preuves :
  • Hard skill 2 : [outil/méthode] — note (1/3/5) — preuves :
  • Résolution de problèmes — note (1/3/5) — preuves :
  • Communication — note (1/3/5) — preuves :
  • Collaboration — note (1/3/5) — preuves :
  • Autonomie / ownership — note (1/3/5) — preuves :
  • Motivation pour le contexte — note (1/3/5) — preuves :

Barème simple (1 / 3 / 5)

  • 1 : réponses vagues, peu de preuves
  • 3 : preuves correctes, méthode partielle
  • 5 : preuves solides, démarche claire, recul, résultats

8) Les erreurs fréquentes (et comment les éviter)

Erreur 1 — Évaluer les soft skills au feeling

Fix : questions STAR + mises en situation + scorecard.

Erreur 2 — Tests trop longs ou déconnectés du job

Fix : work sample court, réaliste, noté.

Erreur 3 — Confondre “à l’aise” et “compétent”

Fix : demander des preuves, pas des impressions.

Erreur 4 — Trop de critères

Fix : 5–7 critères max, sinon la décision devient floue.

Erreur 5 — Pas de debrief structuré

Fix : notes individuelles d’abord, puis discussion critère par critère.


Conclusion

Évaluer hard skills et soft skills efficacement, c’est remplacer le flou par des preuves : exercices proches du job pour la technique, questions comportementales et mises en situation pour le comportement. Avec une scorecard simple et un debrief discipliné, vous réduisez les biais et vous augmentez la qualité d’embauche.

Si vous devez commencer petit : mettez en place un work sample test court + 3 questions STAR alignées sur une scorecard. C’est déjà un énorme gain.

By Nicolas

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *