Quels impacts doit-on attendre du CICE et du Pacte de responsabilité sur l’économie française ?

par Bruno Ducoudré, Eric Heyer et Mathieu Plane

A la suite du Rapport Gallois de fin 2012, le gouvernement a décidé de privilégier une politique d’offre, basée sur la baisse de la fiscalité sur les entreprises, afin de lutter contre le chômage de masse et de faire face à la compétition accrue entre les partenaires de la zone euro, engagés dans des politiques de réformes structurelles et de déflation compétitive. Cette politique d’offre a pour but de rétablir la compétitivité de l’économie française et de dynamiser l’emploi, tout en maintenant le cap de réduction rapide des déficits publics structurels. Concrètement, cela a donné lieu à la mise en place du CICE, un crédit d’impôt égal à 6 % de la masse salariale correspondant aux salaires de moins de 2,5 SMIC, et du Pacte de responsabilité, correspondant à une baisse de cotisations sociales patronales pour les salaires compris entre 1 et 3,5 SMIC, ainsi qu’une baisse de la fiscalité sur les entreprises[1].

Or début 2016, soit huit ans après le déclenchement de la crise, l’économie française vient tout juste de retrouver le niveau de PIB par habitant qui prévalait au 1er trimestre 2008, et affiche un taux de chômage proche de 10 % de la population active, soit plus de 3 points de pourcentage au-dessus de son niveau d’avant-crise. Compte tenu de ce constat, l’évaluation de l’efficacité de cette politique d’offre constitue un enjeu majeur.

Dans un article paru récemment, nous simulons l’impact macroéconomique sur l’économie française du Crédit Impôt Compétitivité Emploi (CICE) et de la partie baisse de cotisations sociales patronales du Pacte de responsabilité sur la période 2014-2018, à partir du modèle macroéconomique pour l’économie française e-mod.fr. Cette étude actualise les résultats d’une précédente étude réalisée en 2012 sur le CICE, et vient en complément de notre évaluation sur données macro-sectorielles réalisée en 2015. Elle est enrichie d’une simulation de l’impact des baisses de cotisation sociales patronales issues du Pacte, tient compte du financement des mesures, et introduit de nouveaux effets, en distinguant l’effet du chômage sur le taux de croissance des salaires en fonction de la position dans le cycle. Ainsi, une politique de réduction du coût du travail et de baisse de la dépense publique n’aura pas le même effet sur la croissance selon que l’économie se trouve en haut ou en bas de cycle (voir par exemple Creel et al., 2011 ; Heyer, 2011 ; Auerbach et Gorodnichenko, 2012 ; Blanchard et Leigh, 2013). Le moment de la mise en œuvre des mesures est donc crucial. Par rapport aux simulations existantes, l’apport de ce travail réside dans la mise en évidence de la sensibilité des résultats à la position initiale de l’économie dans le cycle décrite par l’écart de production.

Selon notre scénario central, le Pacte et le CICE permettraient, hors effet du financement, de créer ou sauvegarder 530 000 emplois à l’horizon 2018 et auraient un effet positif sur l’activité économique (+1,2 point de PIB). En revanche, une fois pris en compte les effets du financement, les gains sur le PIB seraient nuls et le nombre d’emplois créés ou sauvegardés serait de l’ordre de 290 000 à l’horizon 2018, avec une fourchette allant de 190 000 à près de 420 000 selon la position dans le cycle.

 

[1] Au total, à l’horizon 2017, cela représentera une baisse des prélèvements sur les entreprises de 41 milliards d’euros par an, dont 29 milliards sont assis sur les salaires, baisse financée principalement par une réduction de la dépense publique (une part des 50 milliards d’économies prévues sur la période 2015-17) mais aussi par une augmentation de 10 milliards d’euros de la fiscalité (hausse de la TVA et de la fiscalité écologique).




Le CICE : entre convictions et incertitudes

par Sarah Guillou[1]

Toute politique publique mériterait d’être évaluée afin de parfaire le jeu démocratique, apprécier la crédibilité et l’efficacité des programmes politiques, et améliorer les outils de politique économique. C’est bien l’ambition louable du Comité de suivi des aides publiques de France Stratégie, l’agence gouvernementale de conseil et d’évaluation des politiques publiques. Cette dernière vient de remettre son troisième rapport sur l’évaluation du CICE, le crédit d’impôt Compétitivité Emploi, instauré en 2013 d’un montant égal à 4 puis 6% (à partir de 2014) des salaires bruts inférieurs à 2,5 fois le SMIC. Ce troisième rapport donne des informations très utiles sur la réception de la politique et ses effets attendus, mais pour l’évaluation au sens strict il faudra être encore un peu patient.

Reconnaissons que l’évaluation des politiques économiques est un exercice délicat. Pour être convaincant, l’évaluateur doit pouvoir démontrer que l’effet qu’il constate est bien le résultat de la politique, tout en sachant qu’une politique économique n’est pas une simple force exercée sur un corps inerte dans un espace sans frottement. Le corps social est en effet tout sauf inerte et l’environnement économique est un champ de forces contradictoires qui donne une résonance contextuelle à toute politique économique. Dit autrement, les conditions de l’expérience de science physique sont loin de se rencontrer en économie et en sciences humaines en général.

Il faut donc, par divers moyens de contrôle statistique, isoler l’effet de la politique en question sur la variable d’intérêt de tous les autres déterminants de cette variable qui ont pu jouer sur elle au même moment. Ainsi par exemple, si on cherche à connaître l’effet du CICE sur l’emploi, il faut connaître l’ensemble des déterminants de l’emploi autre que le CICE qui ont pu jouer au même moment. Idéalement, il nous faudrait connaître ce qu’auraient fait les entreprises sur la même période si elles n’avaient pas bénéficié du CICE. Mais comme nous ne pouvons cloner ni les individus, ni les entreprises, on ne saura jamais quelles décisions d’emploi les entreprises auraient prises si la politique du CICE n’avait pas été mise en place. On peut envisager alors de comparer un groupe d’entreprises qui a reçu le CICE et un autre groupe d’entreprises en tous points semblables aux précédentes sauf en ce qui concerne la perception du CICE (méthode statistiques d’appariement). Au-delà de la difficulté statistique de constituer ces deux groupes d’entreprises semblables et dont on s’attend à des décisions comparables, le problème propre au CICE est que quasiment toutes les entreprises sont éligibles au CICE (voir Guillou et Treibich, 2015) et celles qui n’ont pas réclamé le CICE en 2013 peuvent difficilement être considérées comme semblables aux autres dans la mesure où le non recours n’est absolument pas aléatoire. A défaut, il faudra donc trouver des parades statistiques de contrôle.

Idéalement, les économètres souhaiteraient que les décideurs politiques mettent en place des politiques de manière expérimentale dans des sous-groupes de population dont les caractéristiques ne sont a priori guère différentes de la population non-soumise à la politique (par exemple dans une région géographique) et qui plus est, que cette politique ne soit pas annoncée à l’avance pour qu’elle ne soit pas anticipée par les acteurs, ce qui fausserait l’analyse de leurs réactions.

Mais le temps des élections et donc des politiques n’est absolument pas celui des économètres. Et l’impatience des électeurs relayée par les médias reflète les contraintes temporelles de la décision politique et se fait l’écho de l’ampleur des enjeux des promesses politiques. A cette impatience s’oppose le lent et méticuleux processus de collecte des données statistiques dont a besoin l’évaluateur. Le traitement des données de comptabilité d’entreprises prend du temps en relation avec l’exigence qualitative des enregistrements statistiques. Ce qui recule d’autant l’exercice d’évaluation aussi imparfait soit-il.

L’évaluation est-elle donc un exercice impossible ? A tout le moins, l’évaluation à l’échelle du temps politique est souvent une gageure. Avec des données statistiques disponibles deux-trois ans plus tard, l’addition du temps d’exécution de l’exercice conduit la sortie des premiers résultats à la fin du mandat du gouvernement qui a mis en place la politique entrée en vigueur au mieux un an après le début de mandature (le cas du CICE). Et c’est sans compter l’étalement des effets dans le futur. Mais malgré cela, cette évaluation reste nécessaire, pour la démocratie bien sûr, pour l’amélioration des outils de politiques économiques et la compréhension des comportements des agents économiques. C’est grâce aux enseignements de cette évaluation qu’on affinera les prochains instruments de politique économique.

En attendant cependant, il est impératif d’utiliser tous les moyens à la disposition des observateurs et analystes pour apprécier et anticiper, à défaut de pouvoir évaluer immédiatement, les effets de la politique. Ce sont les moyens mobilisés par le Comité de suivi du CICE de France Stratégie et qui ont donné lieu au rapport paru en Septembre 2015 dont on peut tirer un début d’appréciation du dispositif.

En premier, il importe de quantifier la mesure, de caractériser les populations concernées, les canaux de transmission espérés, et clarifier les effets de court terme et de long terme, voire les effets pervers possibles. Ce travail a été réalisé dans les deux premiers rapports du Comité de suivi et a été complété dans le troisième par une estimation plus précise du coût réel de la mesure et des entreprises qui y ont été sensibles. La créance fiscale CICE déclarée sur les salaires de 2013 qui correspond donc à la dépense budgétaire a atteint un peu plus de 11 milliards d’euros. Concernant les salaires de 2014 et se basant sur un taux de 6%, la créance fiscale atteint, pour le moment et dans l’attente des déclarations issues de comptabilités qui seront clôturées plus tard, un montant de plus de 14 milliards d’euros. Le CICE concerne plus d’un million d’entreprises pour 75% desquelles la créance fiscale représente entre 4 et 6% de leur masse salariale brute (en régime 2014). Une analyse fine des caractéristiques des entreprises concernées par le CICE montre que les entreprises qui devraient être les plus grandes bénéficiaires du CICE (en pourcentage de leur masse salariale) sont plutôt celles qui ont les taux de marge les plus faibles et sont plus souvent non exportatrices ou faiblement exportatrice (voir Rapport page 101-103).

Les enquêtes sont la première modalité d’appréciation qualitative de la perception des agents et de l’orientation de leurs décisions. Ces perceptions conditionnent les décisions en réponse à la politique. On retiendra de ces enquêtes réalisées pour le Comité de suivi qu’une majorité d’entreprises déclarent utiliser le CICE pour améliorer leur résultat d’exploitation (leurs marges) et investir ; que l’emploi est le deuxième motif le plus fréquent avec la formation des salariés ; que la diminution des prix, quand elle est envisagée, est une stratégie privilégiée par l’industrie (secteurs exposés) mais pas par les services ; alors qu’au contraire l’emploi est un objectif plus fréquemment évoqué par les entreprises des services que de l’industrie ; enfin que l’utilisation du CICE pour augmenter les salaires n’est avancée que par une faible proportion des entreprises. Si les enquêtes de conjoncture de l’INSEE (investissement dans l’industrie et enquête de conjoncture dans les services) couvrent des échantillons d’entreprises conséquents, les enquêtes souffrent généralement de deux limites : la difficulté de généralisation et le biais du caractère déclaratif (différence entre ce qu’on annonce et ce qu’on fait réellement). De plus, c’est rarement par le biais des enquêtes qu’on peut déduire une quantification des effets puisqu’on affecte des poids équivalents aux réponses d’entreprises dont le poids dans l’économie est très différent.

Une deuxième modalité consiste à observer l’évolution des variables d’intérêt – l’emploi, l’investissement, les marges, les exportations ou les salaires – et à identifier si cette évolution pourrait être causée par la politique. Il s’agit d’extrapoler à partir des corrélations observées. Par exemple à court terme, le CICE aurait pu être utilisé pour augmenter les salaires, ce qui serait un effet non souhaité du crédit d’impôt. Si les résultats des enquêtes sont contradictoires, l’analyse de la corrélation entre la part du CICE par secteur et les taux de croissance des salaires observés ne suggère pas que le CICE ait été utilisé à augmenter les salaires : « Les secteurs qui bénéficient le plus du CICE sont ceux qui ont enregistré les plus faibles progressions salariales. » Pour aller plus loin, il faudra attendre plus de données sur les distributions des salaires par entreprise pour analyser si les augmentations de salaire observées ont été causées par le versement du CICE.

Une troisième modalité consiste à simuler les effets de la politique. La théorie économique permet d’appréhender ex ante les canaux de transmission de la politique. La modélisation des comportements économiques permet d’anticiper et de prévoir les effets du CICE. La difficulté du CICE est que les canaux de transmission vers les décisions économiques de l’entreprise sont potentiellement multiples (Guillou & Treibich, 2014). Il faut donc faire des hypothèses sur ces canaux et sur les valeurs des élasticités – c’est-à-dire de combien on s’attend à ce que varie une variable (l’emploi par exemple) en réponse à une variation d’une autre variable (le coût du travail) (voir pour ce type de simulation, Plane, 2012) . Il faut aussi intégrer le fait que les élasticités au coût du travail ne sont pas les mêmes selon les secteurs, les qualifications des travailleurs et le mode de détermination des salaires qui prévaut. De même, la contrainte de compétitivité-prix est variable selon le degré de concurrence du marché de l’entreprise et le degré de différenciation ou la qualité des produits.

Plus on aura de données microéconomiques et plus les simulations se fonderont sur des hypothèses de comportement réalistes même si on n’échappera pas à l’hypothèse forte de l’invariance temporelle des comportements. La simulation sera plus juste si on connaît réellement le montant du CICE et sa traduction en termes de baisse du coût du travail ou de baisse d’impôt pour l’entreprise. Cette modalité d’évaluation n’est pas encore possible.

A ce stade, les conclusions quant à l’impact du CICE invitent donc à la prudence et à la patience. Les certitudes énoncées ici et là s’accompagnent forcément de présupposés fondés sur la théorie économique mais aussi sur les convictions individuelles. Or les enseignements du rapport conduisent à raisonnablement admettre que l’incertitude domine encore quant aux effets du CICE sur l’emploi et la compétitivité et invitent à la patience. A cette incertitude il importe cependant que les pouvoirs publics ne répondent pas par de l’instabilité et de la fébrilité institutionnelle. Cela pourrait remettre en cause l’adhésion des entreprises concernées et la projection de leurs décisions futures sur la base d’une politique qu’elles jugent pérenne. On peut revenir sur une politique jugée erronée mais pas avant de l’avoir démontré, sauf à admettre qu’on s’y était engagé à la légère.

 


[1] L’auteur dirige l’équipe de l’OFCE qui collabore avec France Stratégie pour l’évaluation du CICE à partir de données d’entreprises.




Les étudiants peuvent-ils objectivement évaluer la qualité d’un enseignement ?

par Anne Boring, OFCE-PRESAGE-Sciences Po et LEDa-DIAL, www.anneboring.com.

L’auteure présentera ses travaux au Symposium international – Les biais de Genre dans la gouvernance et l’évaluation de la Recherche  organisé par EGERA, Effective Gender Equality in Research and the Academia, qui se déroulera le 23 février 2015 à Sciences Po, dans les locaux du CERI, Paris.

Les universités anglo-saxonnes s’appuient largement sur les évaluations des enseignements par les étudiants pour mesurer la qualité d’un enseignement. Elles font l’hypothèse que les étudiants seraient les mieux placés pour juger de la qualité d’un enseignement dans la mesure où ils observent les enseignants à longueur de cours. Les évaluations ont généralement deux finalités. D’une part, elles sont utilisées comme outil de pilotage pédagogique pour les enseignants eux-mêmes, en leur fournissant des suggestions pour améliorer leur enseignement ; d’autre part, ces évaluations sont aussi souvent utilisées par l’administration pour ses décisions de promotion ou de prolongation de contrats d’enseignements. Les évaluations ont alors un objectif incitatif : elles encourageraient les enseignants à donner le meilleur d’eux-mêmes afin d’être reconduits le semestre suivant ou d’obtenir des promotions.

En France, la pratique des évaluations des enseignements est encore peu répandue, mais de nombreux établissements d’enseignement supérieur envisagent de la mettre en place. Certains établissements privés l’utilisent déjà dans leur politique de recrutement ou de prolongement de contrats de vacation d’enseignement. Les établissements publics, quant à eux, ne peuvent utiliser les évaluations des enseignements que pour aider l’enseignant à améliorer ses pratiques pédagogiques. En effet, les établissements publics sont dans l’obligation de respecter la directive du ministère de l’Enseignement supérieur et de la recherche, qui précise que les « résultats de l’évaluation » ne peuvent être communiqués « qu’à l’enseignant concerné, et non au responsable pédagogique ou au directeur de la composante »[1]. Cette directive confirme une décision du Conseil d’Etat, datant de 1997, qui indique que la procédure d’évaluation des enseignements « tend seulement à permettre aux enseignants d’avoir une meilleure connaissance de la façon dont les éléments pédagogiques de leurs enseignements sont appréciés par les étudiants » et « qu’elle ne comporte ni n’implique aucune incidence sur les prérogatives ou la carrière des enseignants ». Ainsi, seul l’enseignant intéressé peut avoir « connaissance des éléments de cette forme de l’évaluation »[2].

Que l’utilisation finale de cet outil de pilotage soit l’amélioration de la pédagogie ou la gestion des équipes, les universités doivent s’assurer que l’évaluation par les étudiants soit une mesure objective de la qualité d’un enseignement. Pour cela, elles doivent vérifier au moins trois conditions. Il est nécessaire :

1)      que les étudiants sachent mesurer la qualité d’un enseignement, c’est-à-dire qu’ils soient en mesure d’établir les critères qui définissent la qualité d’un enseignement et de juger l’enseignant selon ces critères ;

2)      que les étudiants ne soient pas biaisés dans leurs jugements et appréciations ;

3)      que les enseignants ne puissent pas adopter de comportements stratégiques pour obtenir de bonnes évaluations ; autrement dit que l’objectif d’obtenir de bonnes évaluations pour un enseignant n’induise pas de comportement pouvant porter préjudice à la qualité de l’enseignement.

Les étudiants savent-ils juger de la qualité d’un enseignement ? (Condition 1)

Quel enseignant n’a pas assisté à une discussion entre collègues où chacun défendait sa propre méthode pédagogique comme étant « la meilleure » ? Ces discussions portent généralement sur le contenu des enseignements, la façon de transmettre ce contenu, ainsi que sur les différentes approches concernant les modalités de contrôle des connaissances des étudiants. Déterminer les critères qui définissent un enseignement de qualité n’est pas chose aisée et les professionnels ne sont pas d’accord entre eux. Pourtant le système des évaluations suppose que les élèves soient au moins en partie en mesure de le faire.

Selon les étudiants, quels sont les critères importants pour déterminer de la qualité d’un enseignement ? La littérature suggère qu’un critère essentiel du point de vue des étudiants est l’extraversion et le dynamisme de l’enseignant, c’est-à-dire sa capacité à capter l’attention (e.g. Radmacher et Martin, 2001). Plusieurs travaux de recherche tendent à confirmer que les étudiants semblent juger en premier lieu la façon dont un enseignement est dispensé, plutôt que la qualité pédagogique ou le contenu même de l’enseignement.

L’effet « Dr. Fox » (Naftulin, Ware et Donnelly, 1973) fait par exemple référence à des enseignants sympathiques qui peuvent obtenir de bonnes évaluations en donnant l’impression d’être compétents, sans pour autant enseigner un contenu pertinent ou de bonne qualité. Dans cette expérience bien connue aux Etats-Unis, des chercheurs ont embauché un acteur pour donner un cours sur un sujet fictif. Le cours comportait de nombreux néologismes et contre-sens et l’idée des trois chercheurs qui ont embauché l’acteur était de déterminer si les personnes assistant à ce cours étaient en mesure de les détecter, sans être aveuglées par l’aplomb, l’assurance et l’autorité académique affichée de l’enseignant (il était en effet présenté avec un faux cv : une panoplie complète de faux diplômes prestigieux et de faux articles de recherche). A la fin de l’enseignement, les personnes ayant assisté au cours du Dr. Myron Fox ont évalué positivement son enseignement. L’expérience montre d’une part que la perception que les étudiants ont de l’autorité académique d’un enseignant compte et, d’autre part, que les étudiants ne sont pas toujours capables de juger du contenu d’un enseignement.

Selon Carrell et West (2010) aussi, la perception que les étudiants ont de la qualité d’un enseignement n’est pas forcément corrélée avec la qualité réelle de cet enseignement, lorsque celle-ci est mesurée par la réussite à long terme. Ces auteurs montrent que les évaluations sont positivement corrélées avec la réussite à court terme des étudiants, mais peu corrélées avec la réussite à plus long terme. Leurs résultats laissent penser que les enseignants dont les techniques pédagogiques favorisent le bachotage peuvent être mieux évalués que des enseignants favorisant des techniques pédagogiques plus exigeantes et difficiles mais incitant davantage à l’apprentissage d’un savoir de longue durée. En effet, les élèves sont souvent d’abord préoccupés par leur réussite à l’examen final, plutôt que par l’utilité future des connaissances acquises au cours du semestre. Or, une université devrait créer des incitations pour que les enseignants utilisent des méthodes pédagogiques permettant l’apprentissage de long terme, méthodes qui ne semblent pas toujours être récompensées par les étudiants dans leurs évaluations.

Les jugements des étudiants sur la qualité d’un enseignant sont-ils non-biaisés  ? (Condition 2)

L’évaluation des compétences peut être sujette à des biais de la part des évaluateurs. La littérature en psychologie sociale, notamment, suggère qu’il est plus difficile pour une personne issue d’une minorité d’être perçue comme étant compétente (quand bien même elle le serait), alors qu’il est plus difficile pour une personne issue de la majorité d’être perçue comme étant incompétente (quand bien même elle le serait). Les effets de stéréotypes et de doubles standards d’évaluation s’appliquent dès qu’il s’agit de déterminer de la compétence individuelle (e.g. Basow, Phelan et Capotosto, 2006 ; Foschi, 2000). Leur impact peut avoir des conséquences particulièrement négatives pour certaines minorités, notamment pour les femmes enseignantes à l’université qui restent minoritaires.

Une étude[3] sur les évaluations d’étudiants de première année d’un établissement français d’enseignement supérieur montre que les étudiants appliquent bien des stéréotypes de genre dans la manière dont ils évaluent leurs enseignants. Les résultats de l’analyse économétrique montrent que les étudiants garçons tendent à mieux évaluer les enseignants hommes que femmes. Les enseignants hommes bénéficient en moyenne d’un biais favorable de la part d’étudiants garçons sur la quasi-totalité des dimensions de l’enseignement, en particulier la qualité de l’animation, la capacité à être en lien avec l’actualité et la participation au développement intellectuel de l’étudiant. Les filles ont aussi tendance à évaluer les hommes plus favorablement sur ces critères, mais accordent des évaluations plus favorables aux femmes sur d’autres dimensions de l’enseignement, notamment la préparation et l’organisation des séances, l’utilité des supports pédagogiques, la clarté des critères d’évaluation et la pertinence des commentaires de correction. Les biais des réponses des étudiants garçons et filles en faveur des hommes sur les critères liés à l’animation du cours notamment génèrent des scores de satisfaction globale plus élevés pour les enseignants masculins. Or, d’autres mesures de la qualité des enseignements (telle que la réussite aux examens) tendent à montrer que les enseignements dispensés par des femmes sont d’aussi bonne qualité que ceux dispensés par des hommes. De plus, certaines tâches d’enseignement davantage valorisées chez les enseignantes (uniquement par les étudiantes) tendent à être chronophages. Les enseignantes se retrouvent ainsi avec moins de temps pour d’autres activités professionnelles, telles que les activités de recherche par exemple.

Les enseignants adoptent-ils des comportements stratégiques au détriment de la qualité de l’enseignement ? (Condition 3)

Enfin, plusieurs études montrent que des enseignants peuvent adopter des comportements stratégiques pour améliorer leurs évaluations. En effet, avec l’introduction des évaluations, les enseignants se trouvent confrontés au problème de l’agent multitâche (Holmstrom et Milgrom, 1991 ; Neal, 2013) : ils doivent bien enseigner, tout en obtenant de bonnes évaluations, objectifs qui ne sont pas nécessairement compatibles comme le montrent Carrell et West (2010). Les deux comportements stratégiques étudiés dans la littérature sont la capacité de démagogie d’un enseignant (cf. l’effet Dr. Fox), d’une part, et la notation généreuse des travaux des étudiants, d’autre part. Bien qu’il n’existe pas de consensus quant au lien causal entre bonnes notes données par des enseignants et bonnes évaluations données par les étudiants, il est en revanche démontré que les deux sont corrélées (e.g. Isely et Singh, 2005).

Conclusion

Les évaluations par les étudiants ne semblent pas satisfaire les trois conditions de mesure objective de la qualité d’un enseignement. On peut d’ailleurs se poser la question de savoir si la nature même de l’activité d’enseignement peut être mesurée objectivement. Faut-il pour autant ne pas mettre en place des systèmes d’évaluation des enseignements par les étudiants ? Les évaluations peuvent être utiles, mais elles doivent être interprétées avec précaution, en étant prises pour ce qu’elles sont plus probablement : une mesure du plaisir que les étudiants ont à aller en cours plutôt qu’une mesure unique et objective de la qualité globale d’un enseignement. Le plaisir qu’un étudiant ressent à aller en cours n’est qu’un ingrédient parmi d’autres d’un enseignement de qualité. Il faut par ailleurs veiller à prendre en compte et à corriger les biais que les étudiants peuvent exprimer dans ces évaluations, en pondérant les critères d’évaluation de manière à ne pas décourager ou pénaliser injustement certaines catégories d’enseignants, notamment les femmes qui obtiendraient de moins bonnes évaluations uniquement du fait de stéréotypes de genre.

This project has received funding from the European Union’s Seventh Framework Programme for research, technological development and demonstration under grant agreement no 612413.

Bibliographie

Basow, S. A., Phelan, J. E., & Capotosto, L. (2006). Gender patterns in college students’ choices of their best and worst professors. Psychology of Women Quarterly, 30(1), 25-35.

Carrell, S. E., & West, J. E. (2010). Does Professor Quality Matter? Evidence from Random Assignment of Students to Professors. Journal of Political Economy, 118(3), 409-432.

Foschi, M. (2000). Double standards for competence: Theory and research. Annual Review of Sociology, 21-42.

Holmstrom, B., & Milgrom, P. (1991). Multitask principal-agent analyses: Incentive contracts, asset ownership, and job design. Journal of Law, Economics, & Organization, 24-52.

Isely, P., & Singh, H. (2005). Do higher grades lead to favorable student evaluations?. The Journal of Economic Education, 36(1), 29-42.

Naftulin, D. H., Ware Jr, J. E., & Donnelly, F. A. (1973). The Doctor Fox lecture: A paradigm of educational seduction. Academic Medicine, 48(7), 630-635.

Neal, D. (2013). The consequences of using one assessment system to pursue two objectives. The Journal of Economic Education, 44(4), 339-352.

Radmacher, S. A., & Martin, D. J. (2001). Identifying significant predictors of student evaluations of faculty through hierarchical regression analysis. The Journal of Psychology, 135(3), 259-268.

logo eulogo egera

The project EGERA has received funding from the European Union’s Seventh Framework Programme for research, technological development and demonstration under grant agreement no 612413.

 

 


[1] http://www.sauvonsluniversite.com/IMG/pdf/annexe_2.pdf

[2] http://www.legifrance.gouv.fr/affichJuriAdmin.do;jsessionid=82259E9F48498C78A1DE5D39FA492F2B.tpdjo02v_3?oldAction=rechExpJuriAdmin&idTexte=CETATEXT000007971674&fastReqId=2009366756&fastPos=1.

[3] Etude effectuée dans le cadre du programme de recherche européen EGERA : Boring, A. (2015). Gender Biases in Student Evaluations of Teachers (document de travail OFCE en préparation).




L’économie de l’enseignement supérieur : de la nécessité de marcher sur deux jambes

par Jean-Luc Gaffard

Pour tenir son rang dans l’économie de la connaissance, la France a décidé de transformer l’organisation de l’enseignement supérieur et de la recherche (cf. note longue). En faisant le choix de l’autonomie de ses universités et s’engageant sur la voie d’une concurrence fondée sur une évaluation indépendante de leurs performances, elle a privilégié le soutien d’une recherche de haut niveau au motif que davantage investir dans ce domaine apporterait des points supplémentaires de croissance. Ce faisant, le développement des formations d’enseignement supérieur destinées à pourvoir un nombre grandissant d’emplois hautement qualifiés a été assez largement négligé, alors même que la croissance en dépend sans doute plus que de l’intensité de la recherche en elle même. Aussi faudrait-il ne pas se limiter à promouvoir un petit nombre de grandes universités renommées pour la qualité de leurs recherches à l’échelle internationale. Comme cela a été souligné dans une conférence tenue à l’UNESCO, « [Les classements] poussent nos décideurs à copier Harvard. (…) [Le problème] n’est pas que nous ne pouvons pas avoir partout des Harvard. Il est que nous n’en avons pas besoin et que nous n’en voulons pas » (New York Times, 30 mai 2011). Le choix de développer l’enseignement supérieur pour pourvoir des emplois de plus en plus qualifiés devrait conduire à une réelle diversification des critères d’excellence et des établissements ; cela garantirait l’existence d’un tissu universitaire dense et diversifié, remplissant avec efficacité la double mission de recherche et d’enseignement.

Le mode de gouvernance des universités, les conditions de recrutement et de rémunération des universitaires et les conditions de financement, en bref le modèle économique de fonctionnement des universités, seront déterminants du chemin qui sera suivi.