Accès direct au contenu | Accès direct au menu

Mot de passe oublié ?

Créer un compte

+
Vers Espace public
Retour à l'espace destiné au grand public

L'espace des professionnels
orientation, formation, emploi


Vous êtes ici : Espace Professionnel > Formation > Qualité de la formation > Restez informé : Veille "Qualité de la formation"

La qualité de la formation

A la Une...



  • Datadock : une aide pour les prestataires de formation
    22 mai 2017
    Datadock se développe En 2017, les financeurs de la formation professionnelle (Opca, Opacif, Fongecif, ...) ont lancé la première phase d'une démarche de contrôle de la qualité des organismes de formation (OF), une nouvelle mission définie par le législateur. Datadock, la base de données des prestataires de formation conçue par des financeurs, recense aujourd'hui plus de 3 000 prestataires de formation. Objectifs : améliorer la transparence de l'offre de formation et vérifier la capacité des OF à réaliser des formations de qualité. Ces premiers 3000 OF sont référençables. Cela signifie que la déclaration du prestataire a été examinée par l'un des financeurs partie prenante au Projet Datadock et, que les données qu'il a enregistrées sont bien complètes et conformes aux attendus. Sa déclaration est validée. Près de 20 000 autres prestataires ont ouvert un compte et sont en cours de déclaration. Ils sont régulièrement relancés et invités à finaliser leur démarche. Mobiliser d'autres prestataires de formation Depuis janvier 2017, plus de 23 000 prestataires de formation ont fait la démarche de s'enregistrer dans Datadock. Un joli chemin parcouru en trois mois. Mais pour que Datadock poursuive sa croissance, le nouveau cadre de fonctionnement doit encore être rappelé, éclairé et expliqué. Le GIE Datadock a décidé d'une opération de communication : - sensibilisation des OF en direct- information diffusée par les financeurs aux OF avec lesquels ils travaillent- information déployée avec l'aide des prescripteurs et têtes de réseaux : CARIF-OREF, Fédération nationale des UROF, FFP, Synofdes etc. Quelles démarches sont à faire sur Datadock L'inscription sur Datadock facilite, à partir d'une déclaration unique, l'étude du référencement de chacun des OF par les financeurs partie prenante au projet. Chaque prestataire de formation doit : 1. fournir des informations administratives ;2. décrire la manière dont il répond aux 21 indicateurs qualité qui déclinent les six critères réglementaires ;3. déposer les éléments de preuve demandés ;4. finaliser sa déclaration en attestant de sa véracité et en s'engageant à l'actualiser si besoin. Pour faciliter cette inscription, les financeurs proposent régulièrement des réunions de présentation et d'information sur le sujet. Si l'OF peut fournir la preuve qu'il est détenteur d'un label ou d'une certification reconnu par le CNEFOP, il est dispensé de déposer des éléments de preuve liés aux indicateurs. Quant à la description de la manière dont il répond à chaque indicateur, elle devient facultative mais elle reste un élément important pour mieux appréhender sa manière de travailler. Utile l'inscription sur Datadock ? Tout d'abord, cette inscription contribue au respect du décret qualité n°2015-790 du 30 juin 2015 par le prestataire de formation. Ceci garantit une possibilité de prise en charge, par les financeurs de la formation professionnelle, des formations choisies par les clients des OF, en lien avec leur Opca par exemple. C'est donc indispensable pour poursuivre son activité sans obstacle. Une période de transition qui s'achève bientôt ! Pour permettre à tous les acteurs entreprises, salariés et prestataires de formation de s'approprier ce nouveau cadre de fonctionnement, une période de transition a été instaurée jusqu'au 30 juin 2017. Il ne reste donc plus que peu de temps pour effectuer toutes les démarches requises sur Datadock. A propos du GIE D2OF : Constitué par les financeurs de la formation professionnelle pour la mise en oeuvre du décret qualité n°2015-790 du 30 juin 2015, ses missions sont de : - constituer la base de données unique inter-financeurs, baptisée Datadock,- assurer le fonctionnement et l'opérabilité de la démarche initiée dans ce cadre. A son C.A. sont représentés ACTALIANS, AFDAS, AGEFICE, AGEFOS-PME, ANFA, CONSTRUCTYS, FAFIEC, FAFIH, FAF.TT, FPSPP, FONGECIF AUVERGNE-RHONE-ALPES, FONGECIF BRETAGNE, FONGECIF ILE-DE-France, FONGECIF PROVENCE-ALPES-COTE D'AZUR, FORCO, INTERGROS, OPCA 3+, OPCA TRANSPORTS ET SERVICES, OPCABAIA, OPCADÉFI, OPCAIM, OPCALIA, OPCALIM, UNAGECIF, UNIFAF et UNIFORMATION. Plus d'informations sur le site www.data-dock.fr Contacts presse : Florence BAILLEUL 06 13 66 38 39 ou 01 53 02 14 89 fbailleul@uniformation.fr Joséphine RAYMOND 01 53 02 13 89 jraymond@uniformation.fr
  • Qualité de la formation : quels impacts pour le Responsable Formation ?
    16 mai 2017
    Depuis l'entrée en vigueur, au 1er janvier 2017, du décret qualité des actions de la formation professionnelle continue, les prestataires de formation sont en pleine effervescence. Pour autant, cela concerne également la gestion de la formation en entreprise et donc le Responsable Formation. De nouvelles obligations, pour les prestataires de formation, qui rendront l'offre de formation plus lisible pour le Responsable Formation L'article R. 6316-1 du code du travail, créé par l'article 1er du  Décret n° 2015-790 du 30 juin 2015 relatif à la qualité des actions de la formation professionnelle continue, fixe les critères qui permettent aux financeurs de la formation professionnelle continue (Etat, Régions, OPCA/OPACIF, Pôle-emploi et Agefiph) de s'assurer de la qualité des actions de formation dispensées par les prestataires de formation. Ces critères, au nombre de 6, sont cumulatifs :  L'identification précise des objectifs de la formation et son adaptation au public formé ; L'adaptation des dispositifs d'accueil, de suivi pédagogique et d'évaluation aux publics de stagiaires ; L'adéquation des moyens pédagogiques, techniques et d'encadrement à l'offre de formation ; La qualification professionnelle et la formation continue des personnels chargés des formations ; Les conditions d'information du public sur l'offre de formation, ses délais et les résultats obtenus ; La prise en compte des appréciations rendues par les stagiaires. Concrètement, dès le 1er janvier 2017, les organismes financeurs de formation, ont mis en place une base de données pour simplifier le référencement des prestataires de formation : Datadock. Ces derniers, ont jusqu'au 30 juin 2017 pour créer leur compte et compléter leur dossier. Ceux qui rempliront les 6 critères, figureront dans un catalogue mis à disposition du public par chaque financeur (Art. R. 6316-2 du code du travail). Pour certains Responsables Formation, l'achat de formation reste une étape délicate. A moins d'avoir de bonnes compétences en ingénierie pédagogique et de maîtriser tous les domaines pour lesquels ils recherchent un prestataire de formation, ils n'ont aucune assurance que leur choix sera le bon. Le travail d'évaluation des prestataires de formation, qui sera fait par les organismes financeurs, sera une aide non négligeable et permettra également, aux Responsables Formation, de maitriser les coûts des formations. En effet, l'article R. 6316-4 du code du travail, prévoit que les organismes financeurs veillent aux tarifs pratiqués, dans des conditions d'exploitation comparables, pour des prestations analogues. Une période de transition qui pourra avoir des répercussions sur la gestion du plan de formation Depuis le 1er janvier 2017, seules les actions de formation réalisées par les prestataires référencés par le financeur devraient être financées. Pourtant, les financeurs ont choisi de planifier une période de transition qui s'étendra du 1er janvier au 30 juin 2017. Pendant cette période, toutes les actions de formation devraient, normalement, être prises en charge, que le prestataire de formation soit, ou non, inscrit sur le Datadock. Il convient tout de même d'être prudent et de se rapprocher de son OPCA. Par exemple, l'AFDAS (Fond d'assurance formation des secteurs de la culture, de la communication et des loisirs) précise que pour les actions de formation débutant en 2017, les organismes de formation devront retourner un courrier d'engagement à se déclarer sur le Datadock dans un délai de 6 mois. Un conseil, incitez les prestataires de formation avec lesquels vous travaillez régulièrement à se faire référencer car, après le 30 juin, leurs actions de formation ne seront plus prises en charge par les financeurs. Que se passera-t-il, si le Responsable Formation gère son plan de formation en interne ou que la formation est financée sur les fonds propres de l'entreprise ? Dans ce cas, pas d'obligation à ce que le prestataire de formation soit référencé par le financeur. Qu'en sera-t-il des actions financées par des contributions conventionnelles ou volontaires ?  L'article L. 6316-1 du code du travail ne fait pas de distinction entre les actions financées au titre de la contribution légale ou celles financées par les contributions conventionnelles ou volontaires. Dans ce cas, le prestataire de formation devra être référencé par le financeur. Quel devenir pour la formation interne ? Pour rappel, la formation interne est réalisée par l'entreprise elle-même, pour ses propres salariés avec ses propres formateurs et moyens pédagogiques (pas de numéro de déclaration d'activité). Lorsque l'entreprise réalise la Formation en interne, elle n'est pas soumise au décret, mais pourquoi ne pas s'en inspirer afin de se structurer et de s'assurer de la qualité des actions de formation dispensées en interne ?  Source : Questions-réponses de la Direction Générale de l'Emploi et de la Formation Professionnelle (DGEFP) à destination des prestataires de formation.
  • SAFRAN : Labels qualité pour les formateurs et consultants indépendants
    16 mai 2017
    Présentation et échanges autour de deux labels dédiés à la qualité en formation
  • Orientation.org - Organismes de formation : modalités d'informations sur les stagiaires à Pôle emploi
    16 mai 2017
    Depuis l'entrée en application de la loi n° 2016-1088 du 8 août 2016 relative au travail, à la modernisation du dialogue social et à la sécurisation des parcours professionnels, les organismes de formation informent Pole emploi non seulement de l'entrée effective en stage de formation mais aussi de l'interruption et de la sortie effective d'une personne inscrite sur la liste des demandeurs d'emploi.Le décret qui vient d'être publié à ce sujet, spécifie que les organismes de formation informent dans les 3 jours Pôle emploi, sous forme dématérialisée, de l'entrée effective en stage de formation, de l'interruption et de la sortie effective d'une personne inscrite sur la liste des demandeurs d'emploi. Ils s'assurent auprès de Pôle emploi de leur habilitation à accéder au système d'information permettant la transmission dématérialisée de ces événements. A défaut, ces informations doivent être transmises à Pôle emploi dans les 3 jours sous format papier.Le décret n°2017-1019 du 9 mai 2017 fixe les conditions matérielles et de délais dans lesquels les organismes de formation remplissent l'obligation d'information de Pôle Emploi :de l'entrée effective en stage de formation, de l'interruption et de la sortie aux fins d'actualiser en temps réel la liste des demandeurs d'emploi inscrits, dans l'attente du recueil de ces informations par le système d'information du compte personnel de formation : SI-CPF Les dispositions mises en oeuvre par ce décret sont toutefois transitoires jusqu'à "la mise en oeuvre du partage" d'informations qui va se mettre en place via le Système d'information et de gestion du compte personnel de formation -SI-CPF-.  En effet, l'outil n'est pas encore opérationnel sur internet.Le SI-CPF sera l'outil de transmission et de partage des données concernant les titulaires du Compte personnel de formation. Autrement dit, y seront déposées les informations relatives au parcours de formation de chaque titulaire du CPF. Ces informations seront collectées par les organismes financeurs et les entités chargées du conseil en évolution professionnelle -CEP- et viendront alimenter le passeport d'orientation, de formation et de compétences dont chaque titulaire de compte dispose dans son CPF.Concernant le SI-CPF, un décret publié au JO du 6 mai 2017 organise l'échange dématérialisé de données qualitatives, quantitatives et financières relatives à la formation professionnelle, tel que le prévoit la loi n° 2016-1088 du 8 août 2016 relative au travail, à la modernisation du dialogue social et à la sécurisation des parcours professionnels.
  • Orientation.org - Achat de formation : Pôle emploi définit sa politique qualité
    21 avril 2017
    Dans l'instruction en date du 19 avril 2017, sont précisées les situations dans lesquelles les prestataires peuvent remettre un devis à un chômeur, les modalités des contrôles qualité réalisés a posteriori par l'opérateur sur les formations qu'il finance, ainsi que les éventuelles sanctions applicables.Les trois obligations de Pôle emploiComme les autres acheteurs de formation publics et assimilés (État, régions, Opca, Agefiph), Pôle emploi est soumis à trois obligations détaillées par une instruction publiée au Bulletin officiel de l'opérateur :La publication d'un catalogue référençant les organismes de formation prestataires conformes aux critères du décret du 30 juin 2015. Il a été publié en janvier dernier ; La communication au grand public des méthodes utilisées pour vérifier la conformité des organismes de formation aux critères du décret ; La vérification du respect des six critères qualité par les organismes prestataires dans le cadre des AFC (actions de formation conventionnées), des AIF (aides individuelles à la formation) et des POEI (préparations opérationnelles à l'emploi individuelles). À compter du 9 mai 2017, les conseillers de Pôle emploi pourront tenir compte de devis réalisés par les organismes de formation dans le cadre d'une AIF ou d'une demande de prise en charge pour les POEI. Pour ce faire, le prestataire devra toutefois être référencé au sein du catalogue de Pôle emploi ou être attributaire d'un marché au titre de la délivrance des actions de formation conventionnées par l'opérateur.Autres possibilités permettant aux organismes prestataires de remettre un devis au demandeur d'emploi devant réaliser la formation :être détenteur d'un label qualité ou d'un certificat reconnu par le Cnefop ; et/ou être référencé au catalogue qualité d'un conseil régional, d'un Opca, d'un Opacif, ou de l'Agefiph ; et/ou avoir reçu de Pôle emploi une attestation de conformité à la suite d'un contrôle sur pièces engagé dans le cadre d'une précédente prise en charge.
  • Qualité de la formation : Foire aux questions
    19 avril 2017
    Plus d'informations sur la conférence "Qualité de la formation : quels sont les impacts du décret ?". Quelle est la plus-value d'une qualification OPQF* par rapport au simple référencement dans Data Dock ?Tout organisme de formation qui a un label qualité reconnu par le Cnefop, ce qui est le cas du certificat de qualification OPQF, bénéficie d'une procédure simplifiée de déclaration dans Datadock. Pour mémoire les labels qualité reconnus par le Cnefop le sont pour 3 ans (renouvelables) sans condition, ou avec une clause de revoyure à un an.*Office Professionnel de Qualification des Organismes de Formation (OPQF) Un organisme ayant un numéro de SIRET et un numéro de Déclaration d'Activité Unique, mais plusieurs établissements doit-il faire un enregistrement dans Datadock pour chaque établissement ?Le décret Qualité concerne chaque organisme ayant un numéro de déclaration d'activité. Donc si dans un même groupe, certains centres ont une identité juridique différente et ainsi un numéro de déclaration d'activité auprès de la Direccte distinct, il y a lieu de faire les démarches Qualité pour chacun d'eux. Y-a-t-il un seuil d'activité minimum obligeant à se référencer dans Datadock ? Il n'y a pas de seuil d'activité minimum à partir duquel se référencer dans Datadock.Les prestataires de l'accompagnement VAE sont-ils concernés par le référencement dans Datadock ?Oui s'ils ont un n° d'organisme de formation et donc une activité et des actions de formation.Où peut-on trouver des précisions complémentaires sur les indicateurs à renseigner dans Datadock ?Pour une question sur les indicateurs, les preuves à déposer ou sur le référencement, il faut contacter le ou les Opca financeur(s) de la formation en question.  Quels sont les éléments à fournir dans Datadock lorsque la prestation de formation est réalisée en sous-traitance ? Les organismes sous-traitants sont indirectement concernés. C'est l'organisme donneur d'ordre qui doit justifier de la qualité des formations pour lesquelles il a obtenu ou demande un financement public ou paritaire (OPCA). Aussi les contrats de sous-traitance devront comporter tous les éléments utiles apportant cette garantie au donneur d'ordre.Pour les sous-traitants avec lesquels un contrat a déjà été signé (convention annuelle par exemple), un avenant est à envisager.Cela suppose de la part des financeurs et des organismes de formation une vigilance accrue sur les moyens et les modalités mobilisés de mise en oeuvre.Certaines réponses sont issues de la Foire aux questions réalisée par l'Agence régionale de la formation tout au long de la vie de Poitou-Charentes. Vous pouvez vous y référer pour plus d'informations sur le sujet de la qualité de la formation.[style2;Consulter également]Le replay de la conférence Qualité de la formation : quels sont les impacts du décret ? Qualité de la formation : l'essentiel du décret Les catalogues des financeurs Restez informé : Veille "Qualité de la formation"
  • Comment évaluer la qualité d'une formation pour l'améliorer ?
    19 avril 2017
    1On constate aujourd'hui une généralisation des processus d'évaluation de la qualité de l'enseignement et des programmes dans le supérieur. Si cette évolution peut laisser penser que le tabou de l'évaluation est en partie levé, se pose toutefois la question de la contribution effective de ces processus à l'amélioration continue de la qualité de la formation. 2Trois niveaux influent sur la qualité de l'enseignement (Endrizzi, 2014) : l'établissement, les formations et les individus. On trouve dans la littérature abordant les questions de qualité de nombreux travaux qui portent sur l'un ou l'autre de ces niveaux. Nous n'avons cependant trouvé que peu de recherches qui abordent cette thématique sous l'angle de l'interaction entre ces niveaux. Parmi ceux-ci, on peut citer par exemple Postiaux et Salcin (2009) qui présentent une démarche à la croisée entre l'évaluation des programmes (niveau des formations) et celle de l'enseignement (niveau de l'individu) ou Rege Colet (2009) qui préconise une approche évaluative globale de la formation dépassant le simple recueil des avis des étudiants (niveau de l'individu). 3L'enjeu de notre recherche est double : il consiste, d'une part, à analyser comment des processus d'évaluation mis en place par les instituts de formation remplissent l'un de leurs rôles, à savoir favoriser l'amélioration continue de ce qui est évalué (programmes, enseignements, apprentissages...) ; d'autre part, il vise à faire évoluer ces processus à partir des résultats issus de cette première analyse. Notre ambition est ainsi de proposer une démarche généralisable de compréhension et d'amélioration des processus d'évaluation de la qualité de la formation, considérée comme objet-frontière touchant aux trois niveaux évoqués précédemment. 4Pour répondre au premier enjeu, nous décrivons les filtres sur lesquels repose la méthode d'analyse des processus d'évaluation et la manière dont la lecture des résultats (au travers de ces filtres) renseigne sur leur contribution à l'amélioration continue visée. Nous proposons des pistes de remédiation aux éléments identifiés comme contribuant insuffisamment à l'amélioration continue de la formation pour répondre au second enjeu. Afin de tester la faisabilité de la démarche, nous présentons aussi sa mise en oeuvre dans le cadre de la formation des enseignants des filières secondaires de la Haute école pédagogique BEJUNE (BErne-JUra-NEuchâtel, Suisse). Nous terminons par une discussion sur les limites et perspectives de notre approche. 5Les objectifs de cette recherche sont pluriels et dépendants les uns des autres. Il est intéressant de noter qu'ils ont progressivement évolué à la suite de l'intégration de premières observations issues d'une analyse a priori du processus d'évaluation étudié. Notre recherche vise, au final, les objectifs suivants : identifier des principes porteurs de l'amélioration de la qualité d'une formation ; sur la base des principes retenus, proposer une grille multidimensionnelle d'analyse des outils et/ou d'un processus d'évaluation de la qualité de la formation dans une perspective d'amélioration continue ; tester le fonctionnement de la grille au travers d'un exemple concret. 6Les questions de recherche suivantes ont servi à guider le travail dans la triple perspective énoncée ci-dessus : Quels sont les principes vecteurs de l'amélioration de la qualité d'une formation ? 7Pour répondre à cette interrogation, il convient, dans un premier temps, de définir la notion de « qualité » et ce qui est entendu par son évaluation. La revue de la littérature permet de mettre en exergue des principes à respecter en vue de l'amélioration de la qualité et de justifier la sélection d'une partie d'entre eux. Comment mesurer le degré d'adéquation d'un outil et/ou d'un processus d'évaluation de la qualité de la formation avec chacun de ces principes ? 8C'est ce que nous donnons à voir, de manière décontextualisée, au travers d'une partie méthodologique transférable à d'autres instituts de formation. Comment utiliser cette démarche dans un cas concret ? 9Partant de la démarche générale issue de la deuxième question, nous la mettons concrètement en oeuvre dans un contexte particulier afin de vérifier sa faisabilité et d'explorer ses apports et ses limites. 10Pour apporter des éléments de réponse à ces questions de recherche, nous nous attachons, dès à présent, à définir quelques notions et concepts clefs mobilisés dans cet article. 11On ne trouve pas dans la littérature de consensus unanime sur la définition de la qualité de l'enseignement supérieur ni sur la manière de la mesurer (Endrizzi, 2014). Toutefois, en lien avec les trois niveaux d'influence que nous allons développer ci-dessous, nous retenons que la qualité de la formation se réfère à trois objets : le développement d'une culture qualité, d'une offre de formation de qualité et le soutien à l'enseignement et à l'apprentissage (Endrizzi, 2014 ; Hénard, 2010). L'écueil majeur dans l'évaluation de ces dimensions qui paraissent difficilement objectivables consiste à déterminer les critères et les indicateurs propres à chacune d'elles, en tenant compte des contraintes contextuelles. Il n'existe donc pas de « dimensions universelles de la qualité de l'enseignement » (Endrizzi, 2014, p. 29), ce qui implique d'utiliser une pluralité de méthodes dans une approche globale. 12Conscients de l'importance de cette approche, nous avons toutefois centré notre travail sur l'analyse d'un dispositif isolé dont la validité repose sur sa capacité « à entraîner des changements » (Endrizzi, 2014, p. 30). 13L'évaluation, dans l'enseignement supérieur, peut répondre à différentes visées et revêtir de nombreuses formes. À l'évaluation de l'enseignement, Romainville et Coggi (2009) associent deux visées : l'une de contrôle, qui peut servir des décisions administratives (engagement ou promotion d'enseignant, attribution de cours, par exemple), l'autre formative. Si les attentes et les motivations de l'initiateur de la démarche évaluative ne sont pas clairement communiquées apparaît alors un risque de laisser les parties prenantes les interpréter. À l'issue de la démarche menée dans cet article, nous souhaitons que « l'ensemble des éléments du processus d'évaluation (ses effets, les jugements de valeur produits et leurs fondements) passent de l'implicite à l'explicite » (Romainville, 2013, p. 283) afin de tendre vers une évaluation instituée. 14Rapidement, il s'agit de préciser la notion même d'évaluation. Nous nous inscrivons dans une conception appréciative promue par Romainville (2013) et Hadji (2012) pour qui l'évaluation « résulte d'une confrontation entre les attentes exprimées sous forme de « critères » et des aspects significatifs du réel traduits en « indicateurs » pour mesurer l'adéquation entre ce qu'on est légitimement en droit d'attendre et la réalité évaluée » (Endrizzi, 2014, p. 12). Dans la lignée de cette conception appréciative, nous souhaitons penser l'évaluation de la qualité comme un moyen au service d'une dimension réflexive et régulatrice de la formation et non comme une fin en soi. S'inscrivant dans la perspective de De Ketele (2014), nous retenons que l'évaluation a notamment pour objectif de guider la prise de décision ou l'établissement d'un jugement : « Trop souvent confondue avec le contrôle et la mesure, l'évaluation est un processus qui consiste à recueillir un ensemble d'informations (...), à confronter par une démarche adéquate cet ensemble d'informations à un ensemble de critères (...) et à attribuer une signification aux résultats de cette confrontation en vue de pouvoir fonder et valider une prise de décision cohérente avec la fonction visée par l'évaluation » (De Ketele, 2014, p. 117). 15Les considérations sur la fonction de l'évaluation évoquées ci-dessus peuvent servir de prémices à une démarche évaluative de la qualité d'objets de natures et de niveaux variés (qualité de l'enseignement, d'une formation, d'un programme, des apprentissages...). Ce faisant, il est nécessaire de préciser sur quoi porte l'évaluation dans notre recherche. 16Notre intention est d'analyser le processus d'évaluation de la qualité d'une formation des enseignants. Cet objet se situe à la frontière entre l'évaluation du programme et l'évaluation des enseignements. 17On peut définir l'évaluation du programme comme « une cueillette systématique d'informations sur les différentes composantes d'un programme, ainsi que leurs interactions afin d'en faire une description détaillée » (Hurteau, 2013, p. 145). Concernant l'évaluation de l'enseignement, on sait que « piloter une offre de formation ainsi que les prestations d'enseignement à partir, mais non exclusivement, des données recueillies lors de l'évaluation auprès des étudiants apparaît comme le nouveau défi des universités » (Rege Colet, 2009, p. 242). On peut cependant relever que c'est l'évaluation de l'enseignement par les étudiants, dont la visée oscille entre démarche formative et contrôle (Younès, Rege Colet, Detroz & Sylvestre, 2013, p. 110), qui est la démarche le plus répandue au sein des institutions d'enseignement supérieur. L'évaluation de la formation, telle que nous l'entendons, emprunte donc à ces deux domaines et a pour objet « l'ensemble de la formation dont les étudiants bénéficient et l'on cherche, par exemple, à en comprendre le fonctionnement [...] et les effets » (Romainville, 2013, p. 301). 18Nous avons précisé la fonction et la nature de l'évaluation puis défini la notion de qualité. Après avoir indiqué que c'est la formation qui est l'objet de l'évaluation de la qualité dans notre démarche, nous pouvons maintenant présenter, plus en détail, les niveaux auxquels se situent les éléments qui influent sur cette qualité. 19Comme nous l'avons mentionné précédemment, Endrizzi (2014) met en exergue trois niveaux interdépendants d'influence sur la qualité de l'enseignement : l'établissement, les formations et les individus. Nous avons opté de les utiliser dans le cadre de l'analyse de la formation puisque celle-ci est à la croisée entre deux objets d'évaluation : l'enseignement et le programme. Ces trois niveaux constituent donc les piliers sur lesquels s'appuie l'analyse de notre outil d'évaluation. L'intérêt réside aussi dans le fait qu'ils sont transférables à d'autres contextes. Nous les détaillons ci-dessous. 3.4.1. Niveau établissement ou la conformité aux normes 20Le premier niveau auquel réfère Endrizzi (2014) est relatif à la conformité aux normes. Il s'agit, pour tout institut de formation, souhaitant s'inscrire dans la démarche que nous proposons, de sélectionner un texte de référence qui pose un certain nombre de principes ou de standards. Concrètement, l'outil d'évaluation sera lu et analysé au travers de ces principes. Dans le contexte européen par exemple, c'est le texte Standards and Guidelines for Quality Assurance in the European Higher Education Area (2015) qui pourrait servir de cadre de référence. Il décline dix principes, en anglais dans le texte, au service de l'assurance qualité des établissements de formation dans le supérieur : policy for quality assurance ; design and approval of programme ; student-centred learning, teaching and assessment ; student admission, progression, recognition and certification ; teaching staff ; earning resources and student support ; information management ; public information ;on-going monitoring and periodic review of programmes ; cyclical external quality assurance. 3.4.2. Niveau formation ou la contribution au développement professionnel 21Le deuxième niveau auquel réfère Endrizzi (2014) est relatif aux formations. L'évaluation de la qualité, de ce point de vue, est probablement, dans la revue de littérature, le volet le moins documenté des trois niveaux considérés. Nonobstant le manque de repères théoriques dans ce domaine précis, nous nous inspirons des travaux de Berthiaume, Lanarès, Jacqmot, Winer et Rochat (2011) sur l'évaluation de l'enseignement par les étudiants, considérée dans une perspective plus large que celle d'un simple outil de collecte d'informations, suivant le principe que « l'évaluation ne fait pas la qualité », d'où la nécessité d'inscrire la récolte d'informations dans un processus global devant « impérativement être complété[e] tant en amont qu'en aval pour produire des résultats » (Romainville & Coggi, 2009, p. 259). Ces derniers auteurs précisent notamment que la démarche d'évaluation de l'enseignement par les étudiants, transposée ici à l'évaluation de la formation, « n'aboutit à une amélioration [...] qu'à la condition de faire l'objet d'un triple suivi : une interprétation et une mise en contexte de ces résultats à la fois par des experts et par les acteurs eux-mêmes, un retour de ces résultats aux acteurs et une offre de formation et/ou d'accompagnement permettant de remédier aux lacunes ou difficultés constatées. » (Romainville & Coggi, 2009, p. 259) 22Au-delà de la nécessité d'un suivi relevée ci-dessus, Berthiaume et al. (2011) ont identifié les principes sur lesquels baser un processus complet d'évaluation de l'enseignement par les étudiants dont l'objectif est prioritairement le soutien au développement professionnel des enseignants et non le contrôle. Souhaitant conserver cette approche, nous considérons que le concept de développement professionnel, dans une acceptation élargie telle qu'adoptée par Paquay, Van Nieuwenhouven et Wouters (2010), peut avoir pour objet une formation dans le sens où il « couvre toutes les transformations individuelles et collectives de compétences et composantes identitaires » (Barbier, Chaix & Demailly, 1994, p. 7) mobilisées à ce niveau. Ainsi, en ajustant les principes et la méthodologie retenus par Berthiaume et al. (2011) au niveau souhaité, nous pouvons définir les critères qu'un processus d'évaluation pensé comme un vecteur du développement d'une formation devrait respecter. 3.4.3. Niveau individu ou le chemin vers la professionnalisation 23Le troisième niveau auquel réfère Endrizzi (2014) est relatif à l'individu. Dans notre recherche, ce terme renvoie à l'étudiant-enseignant, bénéficiaire de la formation professionnalisante. Ce choix se justifie, d'une part, parce que nous nous inscrivons dans un contexte d'internalisation de la professionnalisation de l'enseignement (Wentzel, 2015) et, d'autre part, car l'une des principales missions de tout institut de formation des enseignants consiste à accompagner le changement de statut de l'étudiant-enseignant pour en faire un professionnel compétent et « efficace » (Wentzel, 2015, p. 88). Dans sa recherche, Wentzel (2015), au travers d'une analyse des rapports de l'Organisation de coopération et de développement économiques (OCDE), met en exergue l'« émergence d'une culture de l'évaluation » (p. 94) et plus précisément émet le postulat d'un « lien direct entre évaluation et développement professionnel » (p. 95). S'appuyant sur ces travaux, le troisième niveau que nous avons mobilisé se trouve légitimé. 24Il s'agit maintenant de développer une démarche qui permette de décomposer les outils et/ou les processus évaluatifs selon les trois perspectives retenues. 25Dans tout institut de formation, les systèmes qualité prévoient la mise en oeuvre de processus d'évaluation de la qualité. Il s'agit donc, au travers d'instruments et de procédures, de sonder les perceptions des différents acteurs sur les prestations fournies au cours de la formation. 26Notre démarche consiste à déterminer si ce processus d'évaluation, dans sa conception et son fonctionnement, est en mesure d'apporter des renseignements de nature à permettre l'amélioration continue de la qualité. Nous entendons par là la capacité du dispositif d'évaluation à entraîner des changements (Endrizzi, 2014 ; Romainville, 2013), mobilisée dans la partie théorique en tant que capacité de ce dispositif à fournir des informations sur les trois niveaux identifiés comme impactant la qualité. Ainsi, pour comprendre et mesurer la contribution du processus évaluatif à l'amélioration de la qualité de la formation, nous l'analysons au travers de trois filtres destinés à mesurer la capacité des instruments et processus d'évaluation à récolter de l'information dans chacun des trois niveaux pris isolément. 27Concrètement, pour deux niveaux (établissement et individu), les filtres consistent à dénombrer, dans les instruments d'évaluation utilisés, le nombre d'occurrences d'indicateurs qui renvoient aux niveaux analysés. On obtient ainsi un degré de couverture pour les outils de recueil utilisés. 28Au niveau de la formation, c'est plutôt le processus évaluatif qui doit être analysé en regard du développement professionnel. C'est pourquoi le filtre utilisé est de nature différente. Il vise à déterminer de manière appréciative dans quelle mesure (échelle de Likert de 0 à 4) les cinq principes porteurs du développement de la formation sont respectés au cours de de la démarche évaluative. 29Nous décrivons ci-dessous précisément le fonctionnement des trois filtres d'analyse. Leur utilisation est présentée de manière plus détaillée encore dans la cinquième partie de l'article qui présente les résultats de la démarche appliquée au contexte particulier de notre institution. 30Tel que mentionné précédemment, le premier niveau d'influence sur la qualité est institutionnel (niveau établissement) et se traduit par ce qui est mis en place dans une institution pour répondre à la conformité aux normes. En vue de leurs accréditations, devenues indispensables dans le paysage de l'enseignement supérieur, les établissements de formation se doivent de répondre aux recommandations des textes législatifs. Ces derniers varient en fonction des pays et de leurs politiques d'accréditation. Quelle que soit la nature de ces textes de référence (Standards and Guidelines for Quality Assurance in the European Higher Education Area (contexte européen), Loi fédérale sur l'encouragement des hautes écoles et la coordination dans le domaine suisse des hautes écoles (contexte suisse), Cadre national des formations (contexte français) ...), ceux-ci contiennent invariablement un certain nombre de principes ou de standards auxquels la formation doit satisfaire. Cette première dimension est donc normative : elle vise à mesurer la validité de l'outil en regard des normes prescrites découlant de la loi. 31Comme décrit au début de la méthodologie, il s'agit d'analyser les composantes de l'instrument utilisé dans le processus évaluatif (questionnaires, entretiens, sondages...) et de repérer, pour chaque standard de référence, les indicateurs qui lui correspondent. Autrement dit, si l'instrument est, par exemple, un questionnaire, il s'agira de répertorier et de dénombrer toutes les questions qui touchent à chacun des standards recommandés. Afin de disposer d'une vue synthétique, les pourcentages de couverture ainsi obtenus pour chaque standard (ou regroupement de standards) sont représentés graphiquement (voir figure 1). Cette manière de procéder permet la compréhension des spécificités de l'outil dans la dimension normative, mais aussi la comparaison des résultats de l'analyse de différents outils ou de versions successives d'un même outil, dans cette même dimension. 32Dans leurs travaux sur l'évaluation de l'enseignement par les étudiants, Berthiaume et al. (2011) mettent en lumière quatre principes essentiels (confidentialité, responsabilité, adaptabilité et réflexivité) à la mise en place d'une approche visant le développement professionnel des enseignants. En transposant ces travaux au niveau de l'évaluation de la formation, nous avons utilisé une grille critériée (présentée en annexe 1) adaptée de celle proposée par Berthiaume et al. (2011). Cette grille guide l'analyse de l'instrument d'évaluation, mais aussi le processus dans lequel il s'inscrit. Plus spécifiquement, la grille doit prendre en compte : la planification (définition du questionnement auquel l'instrument devra apporter des réponses, de l'échéancier, des formes de recueil...), l'analyse (quantitative ou de contenu pour les questions ouvertes), l'interprétation des résultats ou encore la communication (en amont et en aval du recueil). 33Dans sa version adaptée, cinq principes ont été retenus. En effet, pour nuancer la lecture des résultats, il nous a semblé nécessaire de distinguer, dans le principe de réflexivité du dispositif, la reddition de comptes des mesures de régulation. Voici ces cinq principes : Confidentialité : Dans quelle mesure les résultats de l'évaluation appartiennent-ils exclusivement à la direction de la formation ? Responsabilité : Quel est le degré de responsabilité de la direction dans le pilotage de l'évaluation ? Adaptabilité : Avec quelle souplesse l'outil d'évaluation peut-il intégrer les questionnements et les besoins de la direction de la filière ? Réflexivité (reddition de comptes) : auprès de qui et sous quelle forme les résultats et mesures de régulation doivent-ils être présentés par la direction ? Réflexivité (mesures de régulation) : quelles sont les ressources, les outils, les organes etc. à disposition de la direction pour identifier des pistes de régulation et accompagner leur mise en oeuvre ? 34Pour chacun de ces principes, en raison d'une grande part d'arbitraire dans l'appréciation, il est difficile d'obtenir des données qui permettent un positionnement précis du processus évaluatif. Suivant la méthodologie de Berthiaume et al. (2011) citée supra, nous avons utilisé une échelle de Likert à cinq échelons pour positionner, de manière appréciative et consensuelle, le processus dans les dimensions définies par les cinq principes. Comme pour le niveau précédent, nous avons souhaité disposer d'une vue synthétique des résultats qui prend la forme d'un schéma radar à cinq branches (voir figure 2). 35Il s'agit de mesurer le degré de couverture par l'outil des dimensions professionnalisantes de la formation par rapport à des marqueurs. Nous avons retenu ceux proposés par Wentzel (2012) dans le cadre d'une recherche sur la professionnalisation de la formation des enseignants dans le contexte suisse, sans doute « internationnalisable », à savoir : intégration de la recherche, praticien réflexif, alternance théorie-pratique, savoirs et compétences, professionnalité et identité professionnelle. Le procédé suivi pour déterminer les degrés de couverture par axe (voir figure 3) est identique à celui utilisé pour la conformité aux normes. 36La méthodologie présentée se veut la plus générale possible en vue d'une appropriation éventuelle par des responsables de formation ou des chercheurs évoluant dans des contextes divers. Il nous est apparu cependant nécessaire de tester la faisabilité de la démarche complète en situation réelle, ce que nous avons fait au sein de notre institution et présentons ici. 37L'outil d'évaluation analysé (consultable dans les annexes) est utilisé dans notre institut de formation des enseignants pour le second degré du secondaire. Cet institut de formation n'est pas une université, mais un établissement du tertiaire désigné comme Haute école pédagogique (HEP) tricantonale suisse (BErne francophone JUra NEuchâtel BEJUNE). Cette distinction par rapport à l'université a son importance, car la mission de l'institution, son fonctionnement ou les profils des formateurs sont par exemple sensiblement différents. La qualité de la formation et son évaluation ne peuvent de ce fait être abordées de manière totalement similaire. 38Le système qualité de notre institution tel qu'il est présenté dans les textes de cadrage prévoit plusieurs instruments de collecte d'informations visant à alimenter l'analyse des prestations. Celui que nous étudions est un questionnaire de fin de formation (voir annexe 2) qui s'adresse aux étudiants sur le point de la terminer. 39Au moment de démarrer notre recherche, il existait une version de ce questionnaire destiné à la filière de formation des enseignants du premier degré. Nous avons l'avons adapté aux spécificités de la filière de formation secondaire et ainsi obtenu la première version de l'outil étudié (correspondant à V1 dans les figures présentées ci-dessous). Ce questionnaire était constitué de 43 questions fermées réparties en six domaines complétées par trois questions ouvertes générales. 40Après une première utilisation de l'outil, nous avons souhaité y apporter des modifications dans le but d'améliorer notre perception de la qualité du programme de formation. Ces modifications, basées sur les résultats de la démarche d'analyse de l'outil et, en partie, sur notre expérience, ont abouti à une seconde version (V2 dans les figures présentées ci-dessous) comportant 55 questions fermées portant sur sept domaines et complétées par huit questions ouvertes. Cette seconde version a été utilisée pour l'enquête de fin de formation de 2015. 41Notre recherche a aussi été motivée par le souhait de procéder à une analyse scientifiquement fondée de l'outil afin d'en comprendre la nature et le fonctionnement et d'en déterminer les axes de développement futur en articulation avec les objectifs qui lui sont assignés. Ceci semble d'autant plus pertinent que la validité d'usage de notre dispositif d'évaluation, conformément aux propos d'Endrizzi (2014), est, rappelons-le, à lier à sa capacité à entraîner des changements. 42Dans l'esprit d'une transférabilité de la méthodologie proposée plus haut à différents contextes de formation des enseignants, nous avons élaboré la procédure d'analyse de l'outil en adaptant le canevas méthodologique à la situation spécifique de notre institution. Nous retrouvons ainsi les trois niveaux d'analyse mis en contexte. 5.2.1. Conformité aux normes 43Pour nous distancer d'une démarche trop empirique et correspondre aux attentes probables des organes chargés de la certification des programmes de formation dans les hautes écoles suisses, nous avons repris puis adapté les domaines déclinés dans les directives de la Loi fédérale sur l'encouragement des hautes écoles et la coordination dans le domaine suisse des hautes écoles (Assemblée fédérale de la Confédération suisse, 2011), à savoir : « objectifs de formation », « conception », « mise en oeuvre » et « assurance de la qualité ». A l'intérieur des domaines, les directives listent une série de critères assez généraux. Nous avons renommé le deuxième domaine « dispositif de formation », ajouté un cinquième domaine lié aux « résultats » contenant deux critères et légèrement adapté les critères du troisième domaine au contexte de la formation des enseignants. 44L'ensemble des cinq domaines qualité ainsi retenus correspond à 13 critères. L'analyse de l'outil sous cet angle a consisté à mesurer le degré de couverture de ces 13 critères par les questions posées dans les deux versions. Concrètement, le degré de couverture d'un critère est déterminé par le pourcentage de questions de l'enquête qui l'abordent. Il est entendu qu'une question peut à elle seule toucher à plusieurs critères. En effet, en se prononçant par exemple sur la question : « De manière générale, les contenus des trois domaines de formation vous semblent répondre aux besoins d'un.e entrant.e dans le métier », les étudiants renseignent les deux critères suivants du domaine dispositif de formation : (1) le contenu du programme d'études et les méthodes utilisées permettent aux étudiants d'atteindre les objectifs d'apprentissage ; (2) le contenu du programme d'études intègre les connaissances scientifiques, l'évolution des champs professionnels et le vécu des étudiants. 45La figure 1 présente les résultats par domaine et non par critères afin de conserver une certaine lisibilité. Figure 1 : Couverture des domaines qualité par les questions de l'outil - versions 1 et 2 Agrandir Original (png, 84k) 46Dans la figure, il apparaît que les domaines « dispositif de formation » et « mise en oeuvre » sont fortement couverts. Ce qui est étonnant a priori, c'est le faible taux de questions ciblant les « objectifs de formation ». Ce résultat nous interpelle et peut s'interpréter de différentes manières. Il semble que ces objectifs soient imaginés comme implicites en vertu de la nature même de la formation, si implicites que nous avons constaté que les objectifs globaux de la formation ne sont pas explicitement formulés dans l'information à disposition des étudiants. Il sera certainement instructif de réfléchir à cet aspect afin de déterminer dans quelle mesure une explicitation de ces objectifs est pertinente, par exemple au travers de la rédaction d'une politique de la formation. 47Nous avons basé les adaptations à apporter à la deuxième version de l'outil principalement sur les résultats de la première analyse, les discussions, les interprétations et les consensus adoptés. Il en ressort, par exemple, une meilleure couverture du domaine « dispositif de formation » dans la deuxième version, en cohérence avec la fonction évaluatrice de la formation que doit remplir l'outil. En effet, tel que mentionné précédemment, cet outil vise en partie l'évaluation du programme. L'augmentation du degré de couverture du domaine des « résultats » dans lequel le sentiment de compétences acquis est interrogé par des questions ouvertes chez les étudiants renforce cette fonction du dispositif. 48À ce stade, il nous semble utile de replacer l'outil dans le contexte qui est le sien. Le domaine « assurance de la qualité » ne saurait être évalué intégralement par ce seul instrument, ce qui explique le faible taux de couverture dans ce domaine. Ce faisant, il est impératif de compléter l'évaluation par une série d'autres moyens permettant d'obtenir un feedback plus complet. 5.2.2. Au niveau de la formation 49Malgré une certaine place laissée par la méthodologie proposée à la subjectivité dans le positionnement du dispositif sur les cinq axes de la grille, le résultat obtenu, présenté à la figure 2, permet de mettre en lumière les caractéristiques du processus évaluatif et d'en guider l'évolution. Figure 2 : Positionnement du processus selon cinq axes - versions 1 et 2 Agrandir Original (png, 83k) 50Dans la figure, on observe dans l'analyse de la première version que le pilotage du processus évaluatif est principalement du ressort de l'unité ad hoc et faiblement de celui de la direction de la formation. Ceci se traduit par un degré deux sur cinq sur l'axe de la « responsabilité ». Des mesures ont été prises afin de rapatrier ce pilotage au sein de la formation (choix des dates, modalités d'utilisation du questionnaire, formes de communication des résultats...). L'impact de cet ajustement va au-delà de l'amélioration du score dans la deuxième version (quatre sur cinq). En effet, la prise en main du pilotage du processus a permis de choisir un mode de remplissage du questionnaire en présentiel qui a fait passer le taux de réponse de 23,2 % à 74,7 %, améliorant, de ce fait, la fiabilité des résultats. 51La formation se montre également actrice dans la « reddition de comptes » puisqu'elle s'est fixé pour objectif de communiquer non seulement les résultats de l'enquête, mais également les « mesures de régulation » qui en découlent, voire de les co-construire avec les formateurs. 52Du point de vue de l'axe « adaptabilité », la possibilité de modifier et/ou d'ajouter des questions correspond à la marge de manoeuvre nécessaire et suffisante pour ce type d'enquête, ce qui explique que le positionnement dans cet axe reste inchangé. 53Le statu quo de l'axe « confidentialité » traduit un fonctionnement non systémique de l'évaluation de la qualité, car seule la direction de la formation reçoit les résultats qu'elle se charge de communiquer aux supérieurs hiérarchiques, dans une dynamique bottom-up, et, à son initiative, à ses usagers et ses acteurs. Le souci de transparence apparaît donc comme central dans la conduite du processus. Enfin, même si aucun dispositif n'est développé pour aider la direction de la formation à réfléchir à la suite de l'évaluation de sa formation, l'expérience montre que de nombreuses « mesures de régulation » ont pu être mises en place par la direction de la formation. On peut légitimement s'étonner du positionnement extrême sur cet axe. Une explication du décalage entre la réalité observée en pratique et le positionnement sur le schéma réside possiblement dans la forte autonomie de la direction de la formation et dans le recours à des ressources internes. En effet, les critères qui définissent les échelons sur cet axe sont liés aux besoins d'accompagnement des formateurs et n'ont peut-être pas été suffisamment adaptés au contexte de la formation. 5.2.3. Professionnalisation 54Pour mesurer le degré de couverture par l'outil évaluatif de la dimension de professionnalisation du programme de formation, nous avons procédé comme pour la conformité aux normes en déterminant les pourcentages de questions ciblant les cinq axes suivants : « intégration de la recherche », « professionnalité et identité professionnelle », « praticien réflexif », « savoirs et compétences », « alternance théorie-pratique », marqueurs de la rhétorique de professionnalisation (Wentzel, 2012). Les résultats pour les deux versions du questionnaire sont présentés dans la figure 3. Figure 3 : Degré de couverture des axes de la professionnalisation - versions 1 et 2 Agrandir Original (png, 77k) 55Globalement, il n'y a pas de changements clairs entre les deux versions de l'outil, à l'exception d'une augmentation sensible du degré de couverture de l'axe « professionnalité et identité professionnelle ». Par ailleurs, la reformulation des questions ouvertes ayant ciblé prioritairement le sentiment de compétence chez les étudiants, il est naturel de constater une variation significative sur cet axe. 56La figure nous amène aussi à interpréter les axes de la professionnalisation, pourtant considérés sur un même plan dans la recherche de Wentzel (2012), comme situés à deux niveaux différents. En effet, les axes « intégration de la recherche », « praticien réflexif » et « alternance théorie-pratique » seraient des composantes du développement de « savoirs et compétences » et de la construction de la « professionnalité et de l'identité professionnelle », eux-mêmes contributeurs principaux du processus de professionnalisation. 57En objectivant l'analyse d'un outil d'évaluation, et a fortiori le processus dans lequel il s'inscrit, on contribue essentiellement à la clarification de ce que signifie « qualité de la formation », en questionnant méthodologiquement certains critères. Cette approche vise à une meilleure appréhension des outils et permet de questionner leur pertinence. Nous avons partiellement associé cette dernière à cet indicateur qu'est le degré de couverture des différentes dimensions. En fonction du degré de couverture obtenu et des objectifs visés par l'évaluation, un institut de formation pourrait être amené à faire évoluer l'outil utilisé. 58De plus, s'engager dans une telle analyse contribue à renforcer la crédibilité de l'outil, du point de vue des acteurs, et donc à lutter contre le tabou de l'évaluation, d'autant plus en partageant avec les formateurs et les étudiants la démarche et les résultats qui en ressortent. 59Toutefois, il faut se garder d'associer un degré de couverture élevé à des contenus de domaines nécessairement performants. Plus précisément, le degré de couverture ne nous dit rien sur le degré d'apprentissage ou le sentiment de compétence chez les étudiants. C'est pourquoi des recherches complémentaires, qui interrogent ces dimensions (évaluation des programmes et du sentiment de compétences, entretiens annuels avec les formateurs, observations de pratiques...), doivent être envisagées pour que le processus global d'évaluation ait du sens et que ses résultats puissent être utiles et exploitables mais également afin de donner davantage de solidité aux pistes interprétatives. Ces dernières permettent d'envisager d'éventuels changements dans le pilotage de la formation et, en convergence avec les propos d'Endrizzi (2014), nous pouvons affirmer que c'est à l'aune de ces derniers que la validité de l'outil peut être estimée. 60Après avoir mis en pratique la démarche proposée sur une première version d'un outil, puis sur une deuxième, remodelée en tenant compte des résultats obtenus, nous avons vu l'utilité de l'analyse dans cette perspective évolutive. 61On décèle aussi des limites induites notamment par un souci de faire correspondre parfaitement l'outil au modèle théorique des trois niveaux d'influence sur la qualité au risque de le figer ou de l'allonger exagérément. Afin d'éviter de tomber dans ce travers, une piste pourrait consister à fixer des pourcentages « raisonnables » de couverture visés au niveau de l'établissement et de l'individu. 62Nous avons également pris conscience que la démarche de transposition du formateur à la formation de la grille de Berthiaume et al. (2011) n'a probablement pas encore suffisamment intégré le changement de nature de l'objet analysé et dont le développement professionnel est visé. Il s'agira de reformuler les critères en s'assurant qu'ils décrivent spécifiquement les objectifs attendus pour la formation. 63Au-delà de ces réserves, la démarche proposée permet véritablement de déterminer dans quelle mesure et à quel niveau un outil d'évaluation de la qualité utilisé dans une institution de formation questionne les éléments qui influent sur la qualité de la formation et, par conséquent, contribue au processus d'amélioration continue de celle-ci.
  • Orientation.org - Qualité de la formation : l'Agefiph publie son catalogue
    12 avril 2017
    Cette première édition du catalogue est constituée des organismes de formation attributaires des marchés de l'Agefiph ayant signé un avenant incluant le respect des dispositions du décret et des indicateurs définis par l'Agefiph.Le catalogue sera régulièrement réactualisé pour y inclure progressivement l'ensemble des organismes de formation attributaires des marchés de l'Agefiph.
Toutes les actualités  | RSSS'abonner

la sélection de ressources

Consulter une sélection sur le sujet, réalisée par le Centre de veille et de ressources du PRAO