C’est quoi un bon coach ? (3/3)

Dans le monde de l’entraînement, le détail règne en maître. S’il suffisait alors au coach de « peser » ces différents détails pour en appréhender leurs effets sur la performance, cela se saurait. Un jeu d’additions et de soustractions suffirait… Au contraire, l’attitude à adopter vis-à-vis d’un athlète reste difficile à déterminer. Voici le dernier article d’une série de trois, dont l’idée est d’objectiver/encourager certains principes d’efficacité propres à toute intervention de performance sportive.

Source - Fotolia
Source - Fotolia

Nombre de coachs proposent leur service. Pour choisir, il devient difficile de faire le tri entre la réputation, les diplômes, les stratégies de communication efficaces/prometteuses, les influences des amis… Si la différence se joue parfois sur l’offre et souvent sur le relationnel, elle se fait toujours sur le niveau de compétence.

En effet, à services similaires, le coach déployant de façon routinière un rationnel étayé et cohérent de ses contenus prendra l’ascendant.

Les ouvrages sportifs sont ainsi de plus en plus investigués par les théoriciens du sport, avec acharnement, et les parcours scolaires réinvestis, avec ambition. Quel que soit le scénario, une même croyance règne pourtant selon laquelle les supports scientifiques sont érigés en parole suprême. En effet, devenir capable de citer un auteur, son étude, son année de publication… permet d’impressionner. Certes. Mais cela ne fait pas tout. D’abord car le principe de validation de la recherche repose sur la décontextualisation des conditions de pratique qui limite la transférabilité des résultats en conditions réelles. Ensuite car les résultats d’études sur une même thématique sont souvent variés dès lors que les protocoles d’investigation sont suffisamment nombreux. Enfin car, lorsqu’elles sont consistantes, les conclusions dégagées par ces études ne sont pas toujours applicables dans un contexte compétitif.

En bref, les supports scientifiques sont donc d’abord des boîtes à idées pour identifier, tester et critiquer une stratégie d’intervention donnée.

 

Dans ce cadre, trois étapes sont aujourd’hui recommandées telle une « To do list » pour tout entraîneur optant pour une démarche d’optimisation de sa pratique. À noter que ces étapes s’appuient sur des prérequis individuels sans lesquels toute démarche d’optimisation serait tuée dans l’œuf : être curieux, être ouvert d’esprit, être humble. Voici cette « To do list » :

 

Rassembler les études concernées. C’est la première des trois étapes. Elle s’effectue efficacement grâce à des bases de données électroniques dédiées à la recherche (Pubmed, Google Scholar…). Avez-vous déjà tapé sur le site Pubmed les items « muscle » et « fatigue » ? Vous n’obtiendrez alors pas moins de 18 000 références bibliographiques. De quoi se forger un avis solides… En appui sur cette abondance de données, des méta-analyses sont alors entreprises (i.e., une sorte de « super-analyse » des analyses). Leur but est de tenter de dégager un consensus dans la pluralité des résultats de recherche. Mais aujourd’hui, même ces méta-analyses deviennent si nombreuses qu’elles peuvent présenter des résultats contrastés. En causes sont souvent citées les différences méthodologiques d’une étude à une autre. Néanmoins, le résultat reste le même : il devient compliqué de se positionner de façon fiable à l’égard d’une problématique donnée. La 2nde  étape sera donc :

 

Interpréter les résultats. Une fois les études d’intérêt ciblées, il est indispensable d’être capable d’en dégager les forces et les faiblesses. Pourquoi ? Pour en soutirer la pertinence ! Ces études sont-elles basées sur des protocoles convenables ? Ne manquent-elles pas de participants ? Présentent-elles des conflits d’intérêt ou peut-on s’y fier ? Interpréter, ce n’est donc pas seulement s’approprier les résultats des protocoles pour en dégager les voies d’application dans sa propre pratique, c’est d’abord jauger le protocole de recherche lui-même pour en pondérer la véracité. En effet, un résultat donné, aussi révolutionnaire soit-il, est avant tout soumis aux conditions dans lesquelles il a été généré. Voilà comment on parvient aujourd’hui à estimer ce que l’on appelle le « risque de biais » de l’étude, sa qualité et donc son utilité. Exemple : des protocoles sur l’entraînement en musculation qui n’ont pas généré de prise de masse chez les participants à l’étude… parce que ces participants sont justement des athlètes d’endurance (et que l’entraînement en endurance inhibe les mécanismes de l’hypertrophie musculaire).

 

Mettre les résultats à l’épreuve de l’expérience de terrain. Une fois la méthode critiquée et ciblée, son opérationnalisation peut être considérée comme l’ultime étape. Mais la confrontation à la réalité peut poser problème. En effet, la recommandation d’un bain froid à 10°C durant 10’ en récupération n’est pas toujours compatible avec le timing du voyage des athlètes après la compétition. L’usage d’un régime low-carb ne convient pas forcément au métabolisme d’un athlète. L’introversion d’un athlète peut shunter tout effet positif des encouragements sur sa performance… Les exemples ne manquent guère pour détecter les limites de recommandations scientifiquement publiées. Dans ce contexte, l’appropriation fait foie.

 

Aujourd’hui, le flux d’informations autour des recommandations rend difficile la séparation de l’information utile du brouillard d’informations inutiles. Cette distinction s’opère souvent par expérience, en associant à chaque prise de décision une prise de distance. Immédiate ou différée, peu importe. L’important est la leçon qui en sera tirée et servira de nouvelle base aux futures interventions. Alors se construit un début de vérité… la compétence… et donc la responsabilité.

Réagissez