ANNEXE III: Observations sur la coopération démonstrative : négociation et métamorphose

La décision et négociation

Le processus bipolaire de l'explication ne suppose pas seulement le partage du sens par messages (communication) mais aussi le partage des actions (la coopération). Le réglage de la synchronisation et la gestion de la communication ne sont qu'un exemple d'activités partagées pendant l'explication. La présentation des procédures (l'explication du savoir-faire) peut recourir à l'action coopérative. La relation serrée entre " action " et " langage " nous permet de considérer les actes coopératifs comme des gestes de communication et réciproquement de voir le partage d'un message comme une action commune. Le partage de la décision devient ainsi un phénomène de résonance imbriqué avec celui du partage du sens.

1. Les acteurs

Pendant le déroulement du dialogue explicatif, on doit choisir le prochain pas discursif ou actif, à l'intérieur du monologue courant ou par un changement de rôle (" passer la parole "). Le choix peut être de type " combinatoire " (entre n possibilités prédéfinis) ou " générique " (ouvert vers une gamme indéfinie de continuations). Pensons aux exemples suivants: décider de la prochaine information à traiter, dela prochaine étape à aborder; changer le mode de communication (de forme, de métaphore, de style); changer le type de coopération, émettre un message, etc. Il s'agit d'une décision sur un aspect quelconque de l'explication.

Les protagonistes sont des acteurs humains. Ils opèrent des choix de manière permanente, car l'explication a une projection dans l'intérieur de leur conscience, là où l'intervention de leur mécanisme de décision est inévitable. La décision implicite est essentielle mais peu contrôlable. Je m'occuperai ici de la décision explicite, c'est-à-dire des choix avec des effets perceptibles. Le problème de la coordination des acteurs est délicat, car le système a plusieurs centres de décision. Sans un protocole, labile ou rigide, planifié ou établi en cours de route, il y a peu des chances que les actions se synchronisent. Qui choisit? Qui a l'initiative? Qui décide? Qui agit?

L'apprenant

C'est le seul qui observe réellement l'évolution de ses connaissances, qui se rend compte de l'opportunité des méthodes, de la qualité de la compréhension, de l'acceptabilité du rythme, de l'état de la motivation, du rapprochement des buts annoncés. Sans son feed-back, l'explication est aveugle .

L'enseignant

Sa décision peut être opportune à cause de son expertise (du domaine et de la pédagogie) et à cause sa position d'observateur humain participant au déroulement effectif de l'explication. Connaissant le message et observant la réaction de l'élève, l'enseignant a une position qui permet une boucle de rétroaction dont on ne peut pas négliger l'importance.

L'auteur du message

Dans le cas de l'utilisation d'un discours préfabriquée (un manuel, du matériel pédagogique, un didacticiel), l'auteur de la composition influence l'équilibre de décision. Il le fait par la structure de l'objet explicatif, qui détermine l'espace des manœuvres. Il le fait en prévoyant des " choix ", peut-être même des mécanismes d'adaptation.

Le fabricant d'un instrument

Même le fabricant d'une plate-forme de composition de didacticiels a un mot à dire dans la distribution de la décision. L'auteur du didacticiel est limité par les possibilités que l'éditeur (l'outil " d'authoring ") lui offre.

Le dirigeant bénéficiaire

L'influence du dirigeant (bénéficiaire, chef) peut être considérable (et à considérer...). En lui offrant des leviers d’intervention, on ajoute un facteur possible pour le succès du système d'explication.

L'ingénieur du système

La gestion de la décision est une partie importante du design d'un système explicatif. L'ingénieur peut choisir une combinaison entre les diverses structures décisionnelles envisageables. Il doit prévoir et synchroniser plusieurs boucles de rétroaction. Il doit concevoir un protocole pour la prise des décisions.

2. Les formules de décision effective

Pour gérer une décision partagée, une gamme très variée de formules est envisageable. Pour l'explication directe on peut s'occuper seulement du système décisionnel enseignant–apprenant, considérant que les autres composantes du systèmes explicatif influencent implicitement leur décisions. Si on veut tenir compte explicitement de l'intervention des autres acteurs, le protocole se complique. Pour l'explication indirecte (sans assistant humain présent) la place de celui-ci est prise par l'objet explicatif, qui " dévirtualise ", pendant l'utilisation, les décisions de l'auteur. La gestion de la décision est un problème complexe. Le fabricant (si on utilise une plate-forme " d'authoring ") et l'enseignant (si le didacticiel est utilisé en sa présence) interviennent aussi. Le protocole de la décision peut leur offrir un certain rôle.

Le modèle suivant met en évidence le continuum des solutions pour la de gestion de la décision dans les cas bipolaires enseignant-apprenant ou instrument-apprenant, que je réunis par la syntagme " assistant-assisté "). X et Y représentent les deux lignes d'intervention directe sur le réglage qui fait l'objet de la décision; A et B sont les messages explicites qui participent à la prise de décision (il peut s'agir d'une demande de changement, d'une proposition ou d'une réponse); a et b sont les messages implicites, obtenus par l'observation de l'autre, qui influencent l'équilibre de la décision. D est le symbole de la décision

Quelques " formules " possibles

1. D = X L'assistant décide la continuation en suivant sa logique, comme conséquence de l'inertie de son discours, sans tenir compte de l'opinion de l'assisté. C'est une formule peu flexible, utilisable pour les décisions non-négociables qui forment l'ossature de certains discours. Les sources de décision peuvent être quelque part ailleurs dans le système ou dans le temps (intérêt connu de l'assisté ou du dirigeant, etc.).

2. D= X(a) L'assistant décide, en observant l'élève (ses derniers gestes, son évolution d'ensemble). C'est une formule plus "cybernétique" qui réclame une analyse fine de la part de l'assistant humain et devient problématique pour un assistant artificiel .

3. D= X(A) La décision est précédée par une requête explicite formulée par l'assisté. Il est bien parfois de laisser à l'assistant la possibilité de décider sur le traitement qu'il applique à la demande de son partenaire. L'assistant artificiel doit disposer d'un mécanisme de traitement des situations préparées, ou réussir un traitement générique.

4. D= X(a,A) L'assistant décide tenant compte de l'observation et aussi des requêtes de son partenaire. C'est une solution fine, même si encore " autoritaire ", à cause du double mécanisme de feed-back qui peut améliorer la convergence.

5. D= X(A(B)) L'assistant décide tenant compte de la suggestion explicite de son partenaire (A), reçue comme réponse à sa question préparatoire (B) qui annonçait le besoin d'une décision. Le cycle du dialogue préparant l'intervention peut avoir aussi plusieurs boucles, mais l'initiative appartient à l'assistant, tout comme la décision finale.

6 D= X(A(B(a)), a) Le dialogue en vue d'une intervention est provoqué, et secondé par l'observation de l'assisté

7 D= Y ou D= Y(b) L'assisté décide du changement selon ses besoins, sa vision, ses problèmes. Il peut par exemple interrompre une présentation qu'il ne peut (veut) pas suivre, la répéter, lui changer le rythme, la forme ou la direction. Avec un partenaire instrumental, il doit tenir compte des possibilités techniques. Avec un partenaire humain, il doit respecter un protocole " de politesse ". Il est rare que ce genre d'intervention n'exige pas la consultation du partenaire.

8. D= Y (B) ou D= Y(B, b) ou D= Y(B(a)) L'assisté décide, après avoir reçu une proposition de changement. L'initiative appartient à l'assistant, mais la décision est laissée à l'assisté. La demande B(a) peut être provoqué par l'observation de l'assisté. La décision peut tenir compte de l'observation de l'assistant (b). C'est une formule puisante, qui intègre deux boucles de feed-back. Dans le cas de l'utilisation d'un objet explicatif, elle exploite la capacité de décision de l'apprenant, tout en laissant à l'auteur la possibilité de proposer des actions.

9. D= Y( B(A)) ou D= Y (B(A, a)) ou D= Y (B(A),b) L'initiative (A) de l'assisté (éventuellement suivi d'une observation de celui-ci ) provoque la réaction de l'assistant (B, b) qui aide l'assisté à prendre des décisions. Le dialogue préalable à l'intervention peut avoir plusieurs boucles. C'est un mécanisme encore fin d'accordage.

10. D= X Y Les deux partenaires ont accès au réglage. Il peut s'agir d'une possibilité d'intervention exclusive (n'importe lequel, mais un seul, car l'intervention et unique et irréversible; le plus " rapide " décide); d'une intervention alternative (un seul à la fois, mais l'action de l'un peut être modifiée par l'autre; le dernier décide le choix final); d'une intervention parallèle, simultanée (la double commande; le " plus fort " décide, ou le résultat est un compromis). Le confit des deux volontés peut être réglé avec une approche de négociation " équitable ", ou avec des " politiques " qui établissent certains facteurs de pondération.

11. D=XY (a,b); D=XY(A); D=XY (B); D=XY(A(B)); D=XY(A,B) etc.

La décision à "double commande" peut à son tour être préparée par l'observation de l'autre, par l'initiative de quelqu'un, par la réponse à l'initiative du partenaire. Chacune de ces solutions peut convenir dans des circonstances particulières.

3. Les spectres des décisions possibles et les modes de négociation

Nous avons en jeu: un initiateur du changement; les sources de son initiative (l’observation de l'autre, l’intervention externe); un appel de préparation (l’annonce, la question, la demande d'opinion); une réponse du partenaire avisé; les sources de cette réponse (l’observation de l'autre, les buts propres des décisions individuelles en conséquence; un arbitrage de la décision collective .

Dans le cas de plusieurs acteurs, le schéma se complique. Ils existent une multitude de situations possibles: D=XYZ...(abc..., A,B,C...). eur énumération provoquerait une explosion combinationnelle. La classification esquissée aux points antérieurs s'occupe du déroulement d'une décision effective dans un seul " point ". Il est possible que le concepteur du système offre plusieurs possibilités de réglage pour ce point, laissant aux utilisateurs le choix du rituel effectif de négociation, au moment de l'explication. Ainsi, un point n'est plus défini par une formule effective, mais par un ensemble de formules possibles : P= {Da, Db, ....}.

Cela rend difficile la classification des " points " de décision potentielle. Plus difficile encore est de caractériser toute l'explication du point de vue de la négociation effective: N= (D1,D2, ....) ou potentielle N= (P1, P2, P3....) de la décision. Il y a une multitude de " points " de décision pour lesquels les formules ne sont pas identiques. Ils ne peuvent pas l'être si le design est optimisé, car des " endroits " différents réclament des formules différentes. Parfois on recourt (prévoit) à des décisions " autoritaires ", parfois on fait (encourage) une négociation.

Dans de telles conditions, il est difficile de parler des solutions " pures ". Ce qu'on désigne par " assistant " ou " entraîneur " ou " partenaire " ou " présentateur " ou " critique " ou " guide " n'est que la signalisation d'une tendance pour certaines formules dans l'univers hybride des " nœuds de décision ". Il est important de saisir l'enchaînement entre les solutions variées qui forment un continuum et s'intriquent (QUE VEUX-TU DIRE?) partiellement, pour éviter les séparations rigides et s'ouvrir vers des solutions flexibles, peut être métamorphiques.

L’adaptation et la métamorphose

1 Le besoin d'un comportement métamorphique

Faciliter l'évolution du " savoir pour faire " demande une perpétuelle oscillation entre aider le savoir par documentation, par expérience, par coopération ou par apprentissage. Souvent on ne dispose pas a priori du " dosage précis " des formules d'assistance qui seront nécessaires. Divers utilisateurs peuvent avoir des besoins de formation différents sur le même " sujet ". Un même utilisateur peut changer sa posture dans le temps, ayant des besoins d'assistance évolutifs

Sur tout le continuum de la maîtrise d'un savoir, un homme se place à chaque moment sur une certaine position. Il commence par avoir une idée, il peut continuer par la préciser, par l'approfondir , il évolue... Ses besoins d'aide évoluent aussi. On s'attend que les instruments qu'il utilise changent. Comment assurer à cette versatilité ?

Une solution rencontrée dans la pratique est la construction de plusieurs instruments séparés. Cette solution est coûteuse, rigide, risque l'inconsistance entre les diverses présentations du même sujet, perd la continuité évolutive entre les changements (hypostases) de l'apprenant. Le relief du savoir d'un utilisateur n'est pas uniforme. Pour certains item du curriculum, il peut avoir déjà acquis une forte expérience, pour des autres il peut se trouver en hypostase de débutant.

Une solution différente pour répondre au besoin de variabilité explicative est de concevoir des environnements explicatifs métamorphiques. L'instrument d'aide pourra s'adapter (être adapté) au rôle (l'hypostase) particulière de l'utilisateur. Il soutiendra pour le même sujet la documentation , la simulation, la coopération ou l'instruction, selon le besoin. L'utilisateur n'est pas obligé de changer l'instrument quand il change de rôle (d'hypostase). Il disposera d'un partenaire plus ou moins explicite, plus ou moins directif, malléable. L'environnement s'accommode à ses " caprices ", sans que cela entraîne des discontinuités (inconsistances) dans le discours. C'est seulement la formule de distribution de la décision qui change.

2. Un modèle de métamorphose

La source d'inspiration du modèle est la méthode de transmission progressive et flexibles de l'expertise, utilisée par les instructeurs humains, par exemple dans l'apprentissage du pilotage par travail à double commande. Les choses se passent comme si l'élève entrait progressivement dans la peau de son instructeur. Le mécanisme est similaire à l'évolution par expérience, mais on diminue les " incidents " de parcours. L'observation du " maître " par " l'apprenti " a une longue histoire. L'ordinateur peut ajouter la mémoire, la facilité de gestion et la force de la simulation.

La figure 1 suggère le modèle de l'explication métamorphique:

fig 1a fig 1b

Les verticales (colonnes) représentent les modes possibles d'avancement dans la présentation. La colonne de gauche peut correspondre à la manière d'assistance la plus explicite. L'assistant (enseignant ou ordinateur) anticipe les actions, explique le " quoi ", le " pourquoi ", le " comment ", marque des explications sur les objets visibles, utilise des schémas de visualisation, etc.). C'est toujours lui qui décide et actionne. Il offre aussi des explications postérieures.

Plus à droite, la richesse explicative baisse. Par exemple, l'assistant fait sans expliquer ou explique sans faire. Plus à droite encore, on a une colonne où les actions ne sont pas indiquées, mais des indications nécessaires pour les déduire sont offertes. Et ainsi de suite... Jusqu'à l'extrême droite, où l'utilisateur doit se débrouiller sans aucune indication, mais avec diverses formes d'évaluation et correction.

Un chemin vertical j (a1j, a2j, a3j,...) correspond à une certain changement de rôle (hypostase) et à une certaine formule stable de décision. L'ensemble des verticales forme " le faisceau discursif " à l'intérieur duquel l'apprenant peut naviguer. Sur chaque horizontale i est représentée une étape-action. La différence entre les modules (ai1, ai2, ai3, ...) qui représentent des versions de la même étape, consiste seulement dans l'encadrement offert pour la réaliser. Ainsi, on garde la cohérence dans le cadre du passage d'une verticale à l'autre, à la recherche d'une autre formule de coopération. La figure 2a montre une possible structure des modules aij et bij:

Chaque action est précédée par une introduction, plus ou moins riche. Puis, il y a une action, dont la distribution du contrôle (entre l'apprenant et l'expert présent ou mandaté) est réglée par un arbitre, selon des " formules " variables. Suite à l'action, il y a une certaine réaction-conclusion (approbation, correction, conseil, évaluation, ajustement du modèle utilisateur, etc.). Les modules de la même ligne ont en commun le bloc d'action, tandis que l'introduction, l'arbitrage, la réaction varient selon le mode de collaboration spécifique à la colonne choisie.

Pour opérer le passage, on utilise les " points de changement de mode " (bij) qui précédent chaque étape utile. La figure 2 b donne une idée de leur structure. Le " menu " d'un changement agit sur le bloc d'introduction, d'arbitrage et de réaction de la prochaine étape active. A titre de comparaison, la figure 1b montre une structure non-métamorphique: chaque colonne (chaque séance de collaboration) doit être parcourue d'un bout à l'autre.

Dans le modèle proposé, les actions de l'utilisateur opèrent à deux niveaux " indépendants ": à l'intérieur des étapes (action utile aij) et entre les étapes (les choix de mode "bij"). Cela offre une possibilité d'observation de l'apprenant, à but d'évaluation, de conseil ou de calibrage. À cause de la régularité de la structure, le chemin "dans le flux" est facile à suivre et à formaliser. Les changements de la verticale ont des interprétations simples. Le déplacement global " vers la droite " indique une meilleure maîtrise de la situation. Le déplacement accidentel vers la gauche indique un point faible de l'élève ou de l'encadrement. On peut même penser à une " métrique " du " degré d'explication " exigé de l'environnement. On peut utiliser une telle métrique pour une évaluation d'ensemble, pour comparer deux utilisateurs ou analyser le progrès à la mesure de l'habituation (expérience, apprentissage). Les traces dans l'hyperexplication métamorphique peuvent servir une boucle double de réaction c’est-à-dire pour l'étudiant et pour son assistant.