Skip to content
🤔prompts chat🧠
🔍
question:Peux tu résumer le texte suivant en 15 lignes : Ce qui est important, ce n'est pas tellement ce que je vais vous dire, c'est ce que je veux vous dire. C'est-à-dire que c'est ce que Montesquieu appelait l'esprit. L'esprit est plus fort que le mental. Alors, la question, on va commencer par un peu de technique. Je vais vous expliquer d'où vient l'intelligence émotionnelle, d'où vient ce concept, parce qu'il y a une explication technique et mécanique que nous allons voir. Mais au fond, si suite à notre rendez-vous, c'est un peu un rendez-vous avec vous, et que ça vous permet, dans notre monde brutal, un peu de passer une heure avec vous, on va dire une heure et demie, une heure trois quarts avec vous, Un peu comme une méditation. On a très très peu de rendez-vous avec soi. Vous savez, j'ai eu le plaisir d'accompagner énormément de patrons depuis les années 90, où j'ai monté ma première société, après avoir quitté Universal. Et j'ai beaucoup travaillé entre autres avec Philippe Varin, quand il a lancé PSA en Chine et au Brésil. Et Philippe Varin, régulièrement à son staff de dirigeant, disait Mesdames et messieurs, si vous ne prenez pas 20 minutes de rendez-vous chaque jour avec vous, vous faites une faute professionnelle. Est-ce que vous prenez 20 minutes de rendez-vous avec vous chaque jour ? Notre monde est un monde d'accélération, qui fait que nous avons très peu de temps, comme dit Piaget, pour avoir des trous, c'est-à-dire pour reposer notre esprit. Notre cerveau est un muscle. Et ce muscle a besoin de repos et d'oxygène. Et pour cela, il est important chaque jour de se dire au fond, quel sens a ce que j'ai fait ? Qu'est-ce que j'ai fait aujourd'hui ? Est-ce que c'était utile ? Et ce sont des choses très très simples, l'intelligence émotionnelle. Je vais essayer de vous traduire, je dis parfois avec une forme d'humour, de vous traduire souvent le Bouddha en Jésus. Parce que l'essentiel de l'intelligence émotionnelle nous vient d'Asie. Mais ce qu'il faut, c'est l'adapter à notre paradigme, c'est-à-dire à l'Occident. Nous, nous sommes un peuple héroïque et non pas stratégique comme l'Asie. Eux, si vous voulez, ils réfléchissent. Les arts martiaux n'ont rien à voir avec les nôtres. Comprenez, eux, avant de frapper, ils regardent. Et après, ils lâchent. Nous, à peine il y a le coup de gong, tout de suite on y va. Ça, c'est le héros. Donc, je vous ai résumé l'intelligence émotionnelle. Qu'est-ce que c'est que l'intelligence émotionnelle ? C'est passer du stade de l'héroïsme, c'est-à-dire où l'émotion est la patronne, au stade de la stratégie. Voilà, en gros c'est ça. C'est-à-dire que je ressens une émotion, qu'est-ce que j'en fais ? Mais il ne s'agit certainement pas de l'annuler, il ne s'agit certainement pas de la supprimer, il s'agit simplement de devenir intelligent avec son émotion. Alors, premièrement, Il s'agit d'une découverte qui est extrêmement intéressante. Et donc, avant qu'on rentre dans la partie pratique et technique, il faut que je vous présente un monsieur qui s'appelle Antonio Damasio. Qui est Antonio Damasio et sa femme Anna ? C'est un Portugais. qui, dans les années 80, est venue s'installer aux États-Unis, a travaillé en Iowa, notamment, à l'université d'Iowa, et a étudié des personnes qui avaient un certain nombre de traumatismes, et il s'est rendu compte que, finalement, écoutez bien, l'émotion... Et la raison, c'est la même chose, mais pas au même stade. L'émotion et la raison, c'est la même chose, donc immense découverte. Il n'y a pas d'un côté l'émotion et de l'autre côté la raison, donc il est stupide de dire oh, j'aimerais ne pas avoir d'émotion puisque, on va le voir ensemble, on ne peut pas vivre sans émotion. Mais en plus, c'est même le parcours obligatoire que va suivre notre raison. Autrement dit, tout commence par de l'émotion, et une fois refroidie, et une fois que ça va suivre un circuit que je vais vous montrer, ça va s'appeler ce que l'on appelle la raison. Et donc il n'y a pas, comme pensait Descartes, je pense donc je suis, il n'y a pas d'un côté l'émotion et de l'autre côté la raison, c'est la même chose, c'est le même circuit, mais pas au même stade. Voilà la grande découverte de Damasio. Qu'est-ce que va découvrir Damasio ? Il va découvrir la chose suivante, nos émotions sont nos alliés. Toute émotion est un cadeau. Arrêtons de dire je ne veux pas avoir d'émotion Premièrement, techniquement, c'est impossible. Et deuxièmement, il dit emotion is our bodyguard L'émotion est notre garde du corps. À quoi servent les émotions ? Émotion, ça veut dire mettre en mouvement. É-motion, ex motere, je mets en mouvement. Donc, ça veut dire pay attention please comme il dit. C'est-à-dire, c'est un petit Jimmy Cricket qui est au-dessus de nous et qui va nous dire fais attention, tu vas être en retard pour prendre ton avion On va appeler ça la peur. Et donc, vous accélérez le mouvement, vous partez un peu plus tôt et vous avez votre avion. Et au lieu de dire oh là là, zut, j'ai eu peur de rater mon avion vous devriez chouette, j'ai eu peur de rater mon avion, donc je l'ai Et donc, en fait, ce que va découvrir Damasio, c'est que l'émotion fait partie structurante de notre bien-être, to the well-ordered intellect, c'est-à-dire que sans émotion, vous et moi, dans le monde dans lequel nous vivons, il l'a dit, je ne l'ai pas parlé avec lui directement, mais j'ai été plusieurs fois en conférence avec lui, il dit que dans le monde moderne dans lequel on vit, on ne pourrait pas vivre, allez, disons plus de dix minutes. Pourquoi ? Parce qu'on sortirait nu dans la rue, on traverserait sans faire attention qu'il y a des voitures, évidemment puisque vous n'auriez plus peur, plus d'émotion, on viderait son compte en banque en 50 secondes, on se jetterait du haut de la tour Eiffel en disant Oh, je suis un oiseau, je vole ! Évidemment, puisque l'enfant naturel de la peur qui est la patronne, Fear is the boss la peur est la patronne de nos émotions, et bien l'enfant naturel c'est la prudence. D'ailleurs les Beatles avaient écrit une chanson Their Prudence C'est-à-dire la prudence est justement le côté positif de nos émotions qui va nous permettre justement de ne pas commettre d'erreur pour notre survie. Bien au contraire, tout se passe dans une région qui s'appelle l'Amigdala et qui va déclencher, tel un effet un peu électronique, je dirais atomique, va déclencher notre compétence. Par exemple, imaginons que je ne connais pas bien Grenoble. Je vais traverser la rue et là, d'un seul coup, Bam ! Oh, il y avait un autobus ! Déclenchement de testostérone, d'adrénaline, je suis à l'optimum de ma performance, je viens de sauver ma vie. Et au lieu de dire Oh là là, j'ai eu peur ! je devrais dire Ouais, super, j'ai eu peur ! Je n'aurais pas eu peur, je me faisais écraser. Donc, Thanks to your fear dit Damasio, c'est-à-dire grâce à notre peur qui est la patronne de nos émotions, eh bien notre vie peut s'organiser. C'est ça la grande découverte. Et donc notre intellect, et surtout notez-le bien, notre pouvoir de décision, va se structurer depuis tout petit grâce aux émotions. Parce que figurez-vous que ce qu'on a découvert, c'est qu'on n'oublie jamais rien. Rien ! Qu'est-ce que c'est qu'une photo ? Une photo est un bibliothécaire. C'est-à-dire que, mais évidemment, si vous regardez la photo trois jours après avoir pris une photo, ça n'a aucun intérêt. Tandis que si vous regardez 20 ans après une photo, vous allez la regarder et dire Oui, Paul, on était où là ? Mais oui, c'était en Crète ! Oh, regarde la tête ! Mais t'étais beau, mon chéri, regarde la tête que tu avais ! On croit qu'on avait oublié. En fait, une photo va simplement être un bibliothécaire qui va renvoyer à notre souvenir. Donc, souvenez-vous de ça, l'intelligence émotionnelle, c'est savoir qu'on n'oublie jamais rien. Par contre... Et là, je commence par vous donner déjà des petits trucs. Il faut savoir pardonner, mais le pardon n'est pas l'oubli. Notez-le bien. Alors, il y a un vieux proverbe amérindien qui dit Lorsque l'on a enfoncé un clou dans une planche, on peut enlever le clou, mais il reste le trou. C'est-à-dire qu'il faut bien distinguer l'oubli et le pardon. Dans l'intelligence émotionnelle, le pardon est fondamental. C'est enlever la partie toxique du souvenir. Et souvenez-vous qu'on peut très bien pardonner sans que l'autre pardonne. C'est-à-dire que si vous êtes fâché avec vos parents, l'intelligence émotionnelle dira tu n'oublieras jamais rien, mais enlève cette partie toxique, enlève le clou. On ne te demande pas d'oublier, mais on te demande d'enlever cette partie toxique et donc toi-même d'essayer de vivre mieux ce souvenir. On a découvert que l'émotion nous aide à prendre des décisions, vous disais-je. Alors comment ça se passe ? On appelle ça la théorie des marqueurs somatiques. Mademoiselle, et tant pis si je me trompe, disait Coluche, vous vous appelez comment ? Jennifer. Jennifer. Et vous ? Benjamin. Alors, imaginons que la petite Jennifer, elle invite Benjamin, ils ont trois ans et demi à l'époque. Benjamin en a quatre, elle a trois ans et demi, et déjà elle a du charme, et alors il l'invite chez elle. Et alors, il se trouve que la grand-mère de Jennifer... elle fait des petites tartes à la framboise extraordinaires. Alors déjà, dans le cerveau du petit Benjamin, tarte à la framboise égale charme de Jennifer. Il n'y a pas que de la tarte à la framboise, il y a un mix des Damasio. Et puis, en plus, il fait beau, c'est l'été, elle a des petites jupettes et vous commencez à jouer au docteur. Alors, je ne vous raconte pas la tarte à la framboise. Et alors, dans le cerveau du petit Benjamin, Il va y avoir ce que Damasio appelle un marqueur somatique positif. Donc, il va associer tarte à la framboise à positif, mais très très positif, parce que Jennifer déjà avait beaucoup de charme. Et puis, trois jours après, il va être invité chez la grand-mère de Laurent. Elle, elle fait une tarte à la rhubarbe, et puis c'est un garçon, nettement moins sympathique, au niveau en tout cas de jouer au docteur, parce qu'il n'est pas du tout d'accord pour jouer au docteur. Alors il arrive chez la grand-mère, qui est très sympathique, mais qui n'a que de la rhubarbe chez elle. Et puis il y a des poils qui dépassent un peu de la tarte à la rhubarbe, alors il se dit, oui, de faire de la rhubarbe, ce n'est pas terrible. Et alors, ce qui est intéressant, c'est que 20 ans plus tard, Quand Benjamin va être au restaurant ou à la cafétéria chez J'aime, et qu'on va lui dire à la fin du repas, le garçon va arriver, il va lui dire Et alors monsieur, vous prendrez un petit dessert ? Bon écoutez, ça dépend de ce que vous avez, qu'est-ce que vous avez ? Ben écoutez monsieur, aujourd'hui nous avons la tarte du chef, la tarte à la rhubarbe. Oh non, tarte à la rhubarbe, non merci. On a également de la tarte à la framboise. Ah oui, tarte à la framboise. Autrement dit, je vous ai expliqué le principe de marqueur somatique. C'est-à-dire que ce que nous avons vécu à l'âge de 3 ans, va 20 ans après nous servir pour prendre une décision. C'est-à-dire que Benjamin aura réduit son champ d'hésitation, on va appeler ça comme ça, puisqu'il aura une partie négative, une partie positive. Et donc tout ce qui est vos mauvais souvenirs va vous aider à prendre les décisions dans l'autre partie. Donc ça réduit d'autant notre incertitude et notre indécision. Voilà pourquoi la prise de décision et l'émotion sont intimement liées. et on va faire un petit voyage à travers le cerveau, ici, à un endroit avec une première lande qu'on appelle la mygdala, et nous avons une deuxième glande que maintenant on arrive à identifier, qui est ce qu'on appelle la mygdala primaire, qui, elle, nous envoie vraiment à nos réactions qu'on appelle reptiliennes. Donc, ici, on est au stade de l'émotion pure. Alors, l'intelligence émotionnelle nous dit que la molécule, à ce stade-là, est chaude. et qu'on ne peut rien en faire. Donc, méfiez-vous. C'est ce qu'on appelle, notez-le s'il y a un peu de place, une réaction. Donc, l'intelligence émotionnelle nous dit, méfions-nous de nos réactions, car la réaction est à chaud. Et imaginez de la pâte à modeler chaude, on ne peut pas la remodeler. Donc, il faut se méfier à chaud de nos réactions. Elles existent, elles ont droit d'exister, mais ce n'est pas être intelligent avec son émotion. Par contre, il faut se dire, qu'est-ce que je viens d'apprendre ? Au bout de quelques minutes, on va dire au bout de 4 à 5 minutes, regardez, le trajet... Ça fait que ça va aller vers ce que l'on appelle la zone préfrontale. Par exemple, mademoiselle, si un coup de fil s'est mal passé et que vous pensez que je ne vous aime plus ou quoi que ce soit, il y a quelque chose qui vous a vexé, n'attendez pas plus de 21 jours. Si vous le faites en temps réel, vous allez être dans l'émotion. Tu dis Quoi ? Tu oses me dire ça ? Là, vous êtes dans le un Par contre, vous me rappelez le lendemain ou le surlendemain et vous dites Dis donc, j'aimerais te reparler de quelque chose. Est-ce que c'est bien cela que tu as voulu dire ? À ce moment-là, vous êtes dans le 2. Est-ce que vous avez compris ? C'est-à-dire que là, un contre-ordre, il faut noter-le, nettoyer le vase régulièrement. C'est une question d'hygiène. En fait, l'intelligence émotionnelle, c'est de l'hygiène énergétique. Et donc, il faut éviter qu'un jour, la goutte d'eau fasse dévore d'élevage, c'est-à-dire qu'à force de ne pas avoir nettoyé votre zone de transit, la moindre remarque que va vous faire quelqu'un va vous faire péter un plomb, ce qu'on appelle. Et donc, il est très important de ne pas parler en temps réel, parce que là, en temps réel, on est capable d'être sur le registre émotionnel pur, mais peut-être un quart d'heure après, de revenir dessus et de dire il faut que je te parle, j'aimerais qu'on revienne sur ce qu'il s'est passé Et à ce moment-là, il faut que je te parle sera beaucoup plus calme, parce que vous serez passé de 1 à 2. Et figurez-vous que vous disposez, notez-le bien en énorme, de 21 jours pour faire ce toilettage. Si vous attendez au-delà de 21 jours, regardez bien, le circuit du cerveau va être le suivant, et il va aller en 3. Et donc, ce qui se passe, c'est que... Et la raison, tout ce que nous n'avons pas nettoyé va être stocké dans notre mémoire longue qui est derrière. Et c'est bien le problème des gens qui ont Alzheimer, puisque de 1, ils vont aller directement à 3. Donc ils vont se souvenir. Donc souvenez-vous que votre visite va leur faire très plaisir parce qu'ils seront dans l'émotion, mais ils ne se souviendront pas de ce qu'ils vous ont dit une minute avant, parce qu'ils vont aller directement de 1 à 3. Et à 3, si vous voulez, c'est la mémoire longue. Et là... La molécule est dure, et ce qu'il faut savoir, c'est qu'elle est froide et que le dur dure. Alors, notez bien que dans ce cas-là, il faut trois fois plus d'énergie pour enlever un marqueur somatique négatif. Vous voyez, par exemple, Marie Laforêt, que j'ai produite en 1992, pour son dernier album, avant qu'elle arrête la chanson, m'a confié qu'elle avait été violée à l'âge de 12 ans. Et je lui ai dit, mais Marie, tu n'en as jamais parlé ? Elle me dit, écoute, je n'ai pas osé. Je lui ai dit, mais tu devrais, tu devrais écrire quelque chose à ce sujet maintenant. Et en fait, il y a 15 ans, elle a écrit un livre, ça s'appelait Avant de chanter Et ce livre a été remarquable. Elle m'a envoyé un mail, elle m'a appelé, elle m'a dit, tu sais, Bernard, tu avais raison. Le fait de le mettre en mots. Ça m'a permis, quel dommage que j'ai attendu 50 ans. Voilà, c'est-à-dire qu'il est important de nettoyer le vase tant qu'il est temps, parce qu'après on garde des choses qu'on appelle des marqueurs somatiques négatifs, et ça va être trois à quatre fois plus difficile de le détruire après. Vous voyez, il y aura une espèce de rancune, il y aura quelque chose qui sera en nous, et là, ça va rentrer dans votre corps, notez-le. Avant, ce n'est que dans le mental, ce n'est que dans votre émotion. Tandis que là, ça va rentrer dans votre corps, si c'est du stress, par exemple, dont vous n'osez pas parler, et là, vous pouvez arriver au burn-out. Le burn-out, ce sont souvent des gens qui sont ce qu'on appelle en surcharge cognitive, c'est-à-dire qui prennent en eux des choses dont ils ne parlent pas, ils n'en parlent pas, ils n'en parlent pas, un jour, Le vase est complet et il pète. Et à ce moment-là, ça devient un effort énorme. D'où l'intérêt en réunion d'oser dire régulièrement. Quand je vois des réunions qui ont lieu tous les mois, je travaille avec beaucoup de codires qui ont changé et qui maintenant les font tous les 21 jours, toutes les 3 semaines. À mon avis, il vaut mieux avoir plusieurs réunions rapprochées où on nettoie le vase au fil de l'eau plutôt que de laisser engrammer des choses et d'en avoir des longues tous les 2 mois, par exemple. Voilà, que ce soit avec votre chéri ou en entreprise, ça marche pour les deux. Si vous voulez, la mauvaise habitude se prend le 22e jour. C'est-à-dire, si votre enfant, vous avez envie de lui dire mais lève le coude quand tu manges vous avez 21 jours pour que ce ne soit pas engrammé dans son corps. Si vous attendez trop, il aura pris ce qu'on appelle un mauvais pli. Et maintenant, on le voit. Donc, l'intelligence émotionnelle nous dit tu disposes de 21 jours pour corriger la chose, pour oser le dire. Donc vraiment, s'il y avait une chose technique, donc je voulais que vous vous souveniez ce soir, c'est 1. Nos émotions sont un cadeau. 2. Nos émotions sont notre garde du corps. 3. L'autre n'est pas moi et surtout la loi des 21 jours. Il faut nettoyer le vase au fil de l'eau. C'est fondamental que vous vous souveniez de tout cela. Alors, ce qui est important, notez-le bien, c'est de ralentir et de refroidir. Si par exemple, vous venez de recevoir un mail... qui vraiment vous met hors de vous, éventuellement répondez à chaud, mais surtout ne l'envoyez pas. Vous le mettez au brouillon, vous le mettez au parking, moi j'appelle ça, vous le relisez une demi-heure après, vous allez vous dire Heureusement que je ne l'ai pas envoyé Et là, vous vous évitez bien des ennuis. Eh bien, vous avez fait de l'intelligence émotionnelle. Vous voyez que ce n'est pas si compliqué que ça. Et ça, ça s'explique techniquement. Au moment où vous l'auriez écrit, vous étiez dans 1, alors que là, vous allez être dans 2. Voilà, et n'oubliez pas la loi des 21 jours. Alors, cette loi, je vous l'ai mise en agrandi dans votre petit document. Voilà, j'adore cette vignette, voyez, que vous, vous avez en petit, mais je l'ai agrandi ici pour vous. C'est le patron de Ikea, et je trouve que c'est vraiment très apprenant. Parce que nous, on dit la nuit porte conseil mais je trouve que cette formule est encore plus belle. C'est en dormant que nous arrêtons de faire des erreurs. La nuit ne porte pas conseil. La nuit permet de passer de 1 à 2 et elle permet de voir les choses d'une autre façon. Donc, en vous disant tu ne paies rien pour attendre, je t'en parlerai demain matin vous faites de l'intelligence émotionnelle. Par contre, il va falloir le dire le lendemain. Il ne faudra pas fuir. Attention. En tout cas, pas plus de 21 jours. Est-ce que c'est clair pour vous toutes ? Je vais avoir besoin de vous de nouveau parce que la phrase la plus importante peut-être de ce soir... C'est là où il y a de la gêne, il n'y a pas de plaisir. Vous allez dire, on vient là pour ça. Oui, vous venez là pour ça. parce que vous n'en aviez peut-être pas pris conscience. Pourquoi ? Écoutez bien ce que je vais vous dire, parce que c'est le tournant. Il fallait bien à un moment donné tourner dans la conférence. La joie est, comme le Bouddha est, comme la lumière est. C'est-à-dire, nous venons tous du Big Bang. Nous ne sommes absolument pas poussière pour redevenir poussière. Nous sommes lumière et nous redevenons lumière. Je l'ai vécu. C'était uniquement pour vendre des indulgences que l'Église a inventé ce terme de poussière et tu redeviendras poussière. Donc ça veut dire que l'instinct de survie, la lumière est en nous. Nous avons tous cela en nous. Donc le problème n'est pas la joie. L'intelligence émotionnelle ne s'intéresse pas à la joie. Elle s'intéresse à qu'est-ce qui empêche ma joie d'être totalement au firmament. Autrement dit, qu'est-ce qui va gêner ma joie. Et donc l'intelligence émotionnelle ne s'intéresse pas à quand un couple se marie et qu'ils ont 20 sur 20. Il s'intéresse à quand, 5 ans après, il n'y a plus que 17. Et alors, le fait qu'il n'y ait plus que 17, on va se poser la question, c'est quoi les trois points de gêne ? D'où ils viennent ? Et en enlevant la gêne, on va retrouver le plaisir. Donc l'intelligence émotionnelle dans son mécanisme est exactement à l'inverse de ce que l'on pense. On ne motive pas quelqu'un, on ne motive pas une équipe, on essaie de comprendre comment elle a été démotivée. Et là, on peut travailler. On ne peut pas travailler sur le bonheur d'un enfant qui rentre de l'école, on peut travailler sur quel est le malheur qui lui est arrivé, où est sa gêne, parce que son copain lui a pris sa voiture et qu'il a un gros bobo. Alors là, on va lui dire, elle est où ta gêne mon chéri ? Et c'est en récupérant la gêne qu'on va retrouver le plaisir. Si par exemple, je demandais à Jennifer, je lui dis Tu sais, regarde, j'ai reçu cette clé, je ne comprends pas, elle ne marche pas. Comment ça se fait, nos nouvelles clés, elles ne marchent pas ? Et Jennifer me dit Ah, mais tu n'as pas vu, on avait reçu un mail, il y a un petit truc maintenant ici qui permet de la connecter pour économiser les batteries. Ah d'accord ! Jennifer ne m'a pas apporté de la joie, elle m'a enlevé un emmerde. Et donc je repars, je dis Ouais, super, merci ! Là où il y a de la gêne, il n'y a pas de plaisir. Donc, ce que je vous propose de façon très intime, alors peut-être que ça peut être au niveau de la vie, ça peut être au niveau de votre travail, ça vous regarde, j'ai envie de vous dire, mettez-vous une note sur 20. Allez-y. Mettez-vous une note sur 20 sur le enjoy. Le enjoy, c'est l'élan, sur l'envie de. Je vous souhaite d'avoir 20, mais ce n'est pas toujours le cas. Alors, ça peut être par rapport au travail. Moi, je fais ça en entreprise avec des codires. Qu'est-ce que ça marche bien ? Vous voyez, ce qui est important, dans un monde parfait, tout le monde devrait avoir 20. Mais le problème, c'est que le 20, il est individuel. Ça dépend de l'histoire de chacun. Alors, pour ceux que ça intéresse l'étymologie, j'ai appris il n'y a pas longtemps... Historia, ça vient du grec. Histoire, ça vient... Historia, c'est l'enquête. Si vous voulez, vous avez tous ici une histoire qui vous est propre, même en tant qu'enfant et parent. Chacun a une histoire qui lui est propre. Et donc, chacun a des raisons d'avoir de la joie ou pas de la joie. Ça ne vous appartient pas. Par contre, si vous voyez quelqu'un autour de vous qui a de la gêne, là, vous pouvez l'aider à enlever au moins un point de gêne. Là, on peut intervenir. Mais on ne peut pas intervenir sur la joie. La joie est quelque chose de très personnel, qui dépend de notre historia, c'est-à-dire de notre enquête personnelle depuis qu'on est tout petit. Et donc, qu'est-ce qu'on appelle le lâcher-prise ? Souvent on me dit, ah oui, écoute, le lâcher-prise, moi j'aimerais bien lâcher-prise. Le lâcher-prise, ça c'est bon en Asie. Alors ils se mettent là, nous on est dans les embouteillages et tout, ça n'a rien à voir. Donc moi je préférais que vous reteniez la chose suivante. Pour lâcher prise, je passe du verre à moitié vide au verre à moitié plat. Voilà. Et là, vous allez vous prendre en flag. Combien de fois le matin, on commence à râler. On dit Oh, ça y est, il fait froid. Oh, ça y est, l'hiver arrive. Et là, vous êtes en plein flag du verre à moitié vide. Eh bien, pour lâcher prise, regardez le verre à moitié plein. Oh, mais quand même, j'ai de la chance. Je vais dans une super école. Je fais partie d'une super association. Puis en plus, il y a un mec qui m'aime. Et puis, j'ai des études. Et puis, j'ai un pouvoir d'achat, etc. Ouais. Puis pour mon âge, je ne suis pas si mal. Et à ce moment-là, vous switchez. Est-ce que vous avez compris ? Donc lâcher prise, c'est passer du verre à moitié vide au verre à moitié plein. Alors, autre chose, un problème est en dehors de moi. Dans notre vie, nous passons notre vie à avoir des problèmes à résoudre. D'ailleurs, les enfants à l'école ont un problème de mathématiques. En entreprise, on passe son temps à avoir des problèmes. un problème n'est pas un problème parce qu'il est en dehors de moi, il ne me touche pas affectivement. Et ça, on le voit avec les IRM. La difficulté, c'est tout autre chose. C'est un problème qui va rentrer à l'intérieur de moi et qui, à ce moment-là, au niveau affect, va prendre de la place et va commencer à devenir rouge dans mon cerveau, comme je vous l'ai montré tout à l'heure. Eh bien, l'intelligence émotionnelle, c'est faire qu'un problème reste un problème, mais ne devienne pas une difficulté. Parler à son N plus 1, c'est un problème, ça ne doit pas être une difficulté. Vivre en couple, c'est un problème, ça ne doit pas devenir une difficulté. C'est-à-dire que ce qui est fondamental, c'est ne pas accepter qu'un problème devienne autre chose qu'un problème. ça doit rester quelque chose de neutre, qui est en dehors de vous. Osez, osez en parler, osez dire il faut que je te parle osez en réunion dire voilà, il faut que je vous dise voilà ce qui… car sinon, ça va devenir une difficulté. Autrement dit, souvenez-vous-en, un problème peut rester un problème pendant 21 jours, mais le 22ème jour, il devient une difficulté, parce que vous n'avez pas osé en parler. Et donc l'intelligence émotionnelle, si vous voulez, c'est ne pas en tout cas transformer un problème en une difficulté. Mon ex-femme, qui est une femme remarquable, mais qui quelque part était devenue maniaco-dépressive, quand on allait au restaurant, tout devenait une difficulté. C'était trop salé, c'était pas assez cuit, ça manquait de vinaigre, ça manquait de machin, il faisait trop chaud. Si vous voyez que tout devenait une difficulté, alors moi évidemment qui essaye toute ma vie de me dire je veux bien avoir des problèmes, mais je ne veux pas avoir de difficultés. Ça ne pouvait plus le faire à un moment donné. Alors, si vous voulez, ce que je crois qui est important, c'est que vous vous souveniez qu'un problème doit rester un problème. Et je vais vous donner cette phrase très belle d'Edgar Ford. C'est un beau cadeau que je vais vous faire. Edgar Ford est un type que j'aimais beaucoup, il avait beaucoup d'humour. Edgar Ford, il a dit un ennemi... c'est quelqu'un avec qui vous n'avez pas encore pris le temps de déjeuner. Un ennemi, c'est quelqu'un avec qui vous n'avez pas encore pris le temps de déjeuner. Qu'est-ce que c'est fort ? Plus vous avez un problème avec quelqu'un, plus il faut se rapprocher de votre peur. Mais attention, pas dans la machine, pas à la cafétéria de Jem. Prenez un endroit en dehors de la maison ou en dehors de l'entreprise. C'est-à-dire un endroit neutre, c'est très important. Allez en dehors de la machine et je vous jure que vous ne le regrettez pas. Et vous direz, écoute, je t'invite parce que je crois qu'il est bien qu'on se parle. Mais en dehors de la machine. D'accord ? En dehors de la loi. Nous avons tous un secret. Le secret, c'est l'attractivité. Cette attractivité que vous avez, parce que je le vois là, avec vous, il n'est pas réservé qu'à certains. Tout le monde l'a. Le problème, c'est que certains ont des gènes qui leur empêchent de laisser parler leur secret. Les trois quarts du temps, si vous voulez, on se dit Pourquoi moi ? La base de l'intelligence émotionnelle, c'est l'autorisation. Parce que je le vaux bien, pourquoi pas moi ? Et donc, si vous vous autorisez votre partie lumière, vous allez irradier sur les autres. Mais si vous arrivez en vous culpabilisant, vous allez diminuer cette lumière. Donc qu'est-ce que nous dit l'intelligence émotionnelle ? Elle nous dit, premièrement, en te levant le matin, il y a un poste, pourquoi pas moi ? Donc, au lieu de dire why vous dites why not Pourquoi est très castrateur. Et pourquoi pas ? Pourquoi pas ? ouvre beaucoup. Donc, notez-le bien. Et pourquoi pas ? est une extraordinaire phrase d'intelligence émotionnelle parce que ça ouvre. Maman, je peux sortir demain soir avec mes copains ? Ah, pourquoi pas ? Tu veux dire que tu n'es pas d'accord ? Attends, je n'ai pas dit que je ne suis pas d'accord, ma chérie, je vais réfléchir. Et pourquoi pas ? ce n'est pas pourquoi Pourquoi l'enfant va le prendre comme une intégration dans son univers ? Tandis que pourquoi pas ça laisse la porte ouverte, c'est un ralentisseur, donc notez-le bien. Et la phrase magique c'est pourquoi pas moi ? Donc voilà, le secret c'est pourquoi pas moi ? Maintenant, mécaniquement, il y a des choses qu'il faut faire, et avant tout, il faut être centré. Qu'est-ce que ça veut dire être centré ? Alors ensemble, on va faire un petit exercice. Vous allez voir. Et pour ça, je vais vous demander de vous lever. Leonardo da Vinci. Il a dessiné l'homme de Vitur qui est devenu le logo de Manpower. Toute l'intelligence émotionnelle est là. Dans un premier temps, vous allez vous mettre sur un pied. Et en plus, essayez de vous mettre sur la pointe du pied. Maintenant, imaginez qu'à la personne qui est à côté de vous, vous lui demandez une augmentation de 1000 euros par mois. Vous avez compris que ce n'est pas jouable. Imaginez un professeur qui arrive et qui vous dit, voilà, je vais vous faire un cours sur... Donc, effectivement, le corps a son importance, parce qu'on pense avec son corps. On est un peu une fusée. Donc, vous voyez, Léonard de Vinci, il commence par dessiner les pieds légèrement écartés, et faites comme si vous alliez au ski. Vous voyez, vous vous ancrez bien dans le sol. Voilà. Déjà, il faut que je te parle. Ça change tout. Parce que si c'est, il faut que je te parle. Entre la poire et le dessert, l'autre ne l'entendra pas. Je n'ai pas le temps de vous expliquer, ça s'appelle l'assertivité. Alors, vous êtes là, bien ancré dans le sol. Maintenant, je vais vous demander de fermer les yeux, de mettre vos deux bras le long de votre corps, bien en position verticale, et de vous faire très grand, comme si vous alliez toucher le plafond. Léonard de Vinci, il dit, tout d'abord, tout commence chez l'homme par voleo Voleo en latin, c'est qu'est-ce que je veux C'est quoi ma mission sur Terre ? Je suis venu sur Terre pour quoi ? Qu'est-ce que je veux dans la vie ? Qu'est-ce qui est important pour moi ? Eh bien, si vous voulez avoir de l'impact sur vos enfants, sur vos amis, sur vos collègues, commencez par savoir ce que vous voulez. Qu'est-ce que vous avez envie de leur dire ? Vous voulez les mener où ? Et donc ça, cette dimension verticale du latin voleo est fondamentale, dit Léonard de Vinci. Et ça, ça ne doit plus bouger. Je dois être clair dans ce que je veux, c'est-à-dire l'angle, le projet que j'ai en moi. Quelle est ma mission sur Terre ? Moi j'ai compris que ce n'était pas de gagner de l'argent, c'était plutôt d'être curé et de prêcher comme je le fais ce soir. Et donc, ce qui est important, c'est que la fonction que vous allez occuper corresponde à votre mission. C'est-à-dire, vous êtes venu faire quoi sur Terre ? Donc, premièrement, l'intelligence émotionnelle nous dit, réfléchis, Philippe Varin dit, ayez rendez-vous chacun 20 minutes par jour et dites-vous, tiens, pourquoi en ce moment j'ai 20 sur 20 ? Pourquoi j'ai 18 ? Pourquoi je suis heureux ? Pourquoi je suis emmerdé avec tel problème ? Il faudrait peut-être que je règle une chose. On ne va pas récupérer 5 points ceux qui ont 15, mais peut-être qu'on peut repasser à 16. Donc premièrement, qu'est-ce que je veux ? Et donc ça c'est votre connexion avec le ciel, les pieds dans la terre et la terre au ciel. Maintenant, tout doucement, attention messieurs, n'en profitez pas trop, parce qu'il y a beaucoup de belles dames ici, vous allez écarter les mains, les bras, vous écartez les bras. Voilà. Et là, vous avez bougé les bras, mais attention, sans bouger le corps, il ne faut pas bouger le corps du tout, uniquement les bras. Et là, Vous faites Shiva. En Inde, j'avais demandé à un artiste qui était en train de réparer un Bouddha, je lui ai dit, mais pourquoi, noble seigneur, pourquoi Shiva a tant de bras ? Et il me dit, mais elle n'a pas beaucoup de bras, c'est le mouvement des bras. Ça, c'est Poteo. Poteo, c'est qu'est-ce que je peux faire. Et donc, notre énergie, elle est centrée ici, au niveau de notre sternum, dans notre sacre. C'est la rencontre entre le vertical, qu'est-ce que je veux et qu'est-ce que je peux. Ce que je veux ne doit pas bouger, mais par contre, il y a une adaptabilité pour ce que je peux. Eh bien, l'intelligence émotionnelle nous apprend... à être centré. C'est-à-dire, sache ce que tu veux et ne veux pas plus que ce que tu peux. C'est-à-dire que vous allez raccourcir un peu vos bras, regardez. N'achetez pas une maison à 3 millions d'euros si vous ne pouvez vous l'acheter qu'à 800 000. Parce que sinon, vous allez être comme ça et du coup, vous allez être stressé. Parce que vous ne pouvez pas. Alors, regardez, on va faire ça. Tu peux filmer ça, tu vas t'éclater. Regardez, faites ça. Vous voyez, voilà. Peut-être, et c'est là. Alors là, vous allez pouvoir maintenant vous applaudir d'abord. Tout est magnifique. Et regardez. C'est ça, petit à petit, l'oiseau fait son nid. Alors, qu'est-ce que je peux commencer à faire ? Vous commencez à faire ça, allez-y, faites ça. Puis après, hop, maintenant je peux ça. Maintenant je peux ça. Puis maintenant je peux ça. Puis je vais m'adapter. Mais je continue à savoir ce que je veux. Alors, la formule magique à noter, notez-le, c'est a miracle at a time c'est-à-dire un miracle à la fois. Notez-le, c'est la clé de l'intelligence émotionnelle. La clé de l'intelligence émotionnelle, c'est un miracle à la fois. Les gens qui sont stressés, c'est les gens qui veulent tout en même temps. Alors ça devient un vrai ventilateur. Et alors ici, au niveau du chakra, c'est très encombré et du coup ça se traduit par un accident cardiovasculaire. Et ce qui est important, c'est qu'ici ça respire. Tenez, vous allez mettre vos mains comme ça et vous allez tous faire ça. Hop, voilà. Ça, c'est important. Moi, je le sens. Je sens qu'ici, vous commencez à être posé, mais très vite, c'est venu. C'est ça que l'autre va ressentir en face. Alors, ça se sent, le charisme passe par le chakra qui se trouve ici et ça se transmet par le regard. Le regard, nos yeux ne sont pas une caméra, c'est un projecteur. C'est le projecteur de l'énergie qu'on a en soi. Mais, quand la personne rentre dans la pièce, ça se passe toujours ici, on voit si la personne est centrée ici. C'est un Wi-Fi. Et ce Wi-Fi, on le sent. Ça ne se voit pas. Napoléon était petit, De Gaulle est très grand. Tous les bouquins qui existent, qui vous disent qu'il faut parler fort, tout ça, c'est pipeau. Ce n'est pas des listes sur le charisme, c'est des livres de com'. Moi, je vous parle du vrai charisme. Le charisme, c'est quand vous êtes centré et que vous dégagez un wifi qui est équilibré. Et l'enfant notamment le sent, les animaux le sentent. Les chats notamment. Les chats le sentent très bien et du coup deviennent des vrais chiens. Moi, mon chat, j'avais des vraies conversations avec lui. Surtout quand j'ai divorcé. Il faut dire que c'était un mâle, ça aide. Alors je lui disais, un gribouille, c'est dur les femmes. Parce que j'étais centré. Mais mes filles qui tiraient la queue du chat et qui s'amusaient, elles ne dégageaient pas de wifi. Donc le chat qui est féminin est très sensible, plus que le chien. C'est comme le cheval. Le cheval, moi je travaille beaucoup avec des managers avec les chevaux, c'est fondamental. Le cheval, si vous n'êtes pas centré, il ne vient pas vers vous. Parce que s'il sent que vous êtes... Lui en plus, il a quatre raisons d'être ancré. Nous, on n'en a que deux. Il faut que ça compte pour quatre. Donc, il est très important d'être ancré dans le sol. Voilà. Alors, chose que je voulais vous dire après, c'est la dernière chose avant qu'on passe aux émotions. Notez-le bien, nous, est une personne à part entière. C'est tellement important. Vous savez, le jour où j'ai découvert ça, ça a changé ma vie et j'ai réussi mon divorce. Pourquoi ? Parce que très souvent, On est dans l'échange et on n'est pas dans le partage. L'échange et le partage, ça n'a rien à voir. L'échange, c'est commercial, c'est toi contre moi. Le partage, c'est avoir compris que nous est la troisième personne, le fameux Saint-Esprit. Et qu'on peut très bien avoir une personne bien à côté, mais que le nous ne fonctionne plus. Et c'est comme ça que j'ai réussi mon divorce. C'est-à-dire que j'ai très bien compris que la femme avec qui j'ai passé 15 ans était quelqu'un de très bien, c'était le toi, il y avait le moi, mais c'était ridicule de dire ouais, puis toi, t'as fait… C'était une peine perdue. C'est tout simplement que le nous avait cessé son chemin. Et ça, c'est très important, notez-le bien. Nous est une personne à part entière. Si vous avez trois enfants, ce n'est pas pareil de discuter avec les trois enfants en même temps ou uniquement avec votre fils, ou uniquement quand il y a les parents, ou quand il y a uniquement les filles. C'est-à-dire qu'on ne se raconte pas les mêmes choses. Vous invitez un ami de plus à dîner, ça change toute la tablée du dîner. Ça change le nous Eh bien, arrêtez de reprocher à l'autre. Posez-vous plutôt la question Quel est le nous Est-ce qu'on prend assez soin de nous Et ça, c'est une belle proposition. C'est une proposition de vie qui ne vous stressera pas. Et de dire, mon chéri, j'aimerais qu'on t'en parle et que dorénavant, on prenne un peu plus soin de nous, car je pense qu'on a été peut-être toi de ton côté et moi de mon côté. Il faut peut-être restructurer le nous. Eh bien, le nous, on le voit maintenant en termes d'intelligence émotionnelle. Alors là, je n'ai pas le temps de vous l'expliquer. En tout cas, notez-le, nous est une personne à part entière. Et ça m'a permis de me quitter en très bon terme avec mon ex-femme. C'est-à-dire qu'on a compris que ce n'était pas la peine de se jeter les affaires à la figure, c'était ni toi ni moi, c'est que le nous avait fini son chemin. Et ça a permis de régler bien des choses avec beaucoup de paix. Alors ça, je vous le souhaite, je vous le souhaite, et je souhaite que vous le mettiez en application. Nous est une personne à part entière. Si vous voulez, la base de l'intelligence émotionnelle, le trust en américain, est très simple. Je fais ce que je dis et je dis ce que je fais. C'est clair. On l'avait vu ce matin, ce matin, excusez-moi, tout à l'heure. Ce qui est fondamental dans l'intelligence émotionnelle, c'est ce premier paradigme. Je fais ce que je dis, je dis ce que je fais. Si vous n'êtes pas là-dedans, dites-vous qu'il y a quelque chose qui va se passer dans le cerveau et que vous allez être en zone grise. Donc premièrement, peu importe ce que vous allez faire, mais le tout c'est de le dire. Alors attention, je n'ai pas dit être transparent, mais être clair dans les règles du jeu. Notez-le bien. La transparence, je n'y crois pas. L'intelligence émotionnelle nous dit... Nietzsche d'ailleurs dit il y a de l'indécence à montrer ses cinq doigts On a tous un petit jardin secret, on a un truc. Mais au moins que les règles du jeu soient claires. Voilà, c'est ça, c'est au niveau des règles du jeu. Et l'intelligence émotionnelle nous dit ça. Deuxièmement, c'est, et ça je ne suis pas inquiet avec vous, c'est être 100% là. Donc, admettons qu'en démarrant ici, j'étais à 87%. Eh bien, je vous jure que depuis tout à l'heure, je vous donne 100% de mes 87%. C'est ça, l'intelligence émotionnelle. L'intelligence émotionnelle, c'est jamais être à 100% de 100%. Parce que là, vous allez être exhausted, vous allez être épuisé. C'est pas comme ça que ça se passe. Mais le jour où il y a l'épreuve, le championnat, le machin, c'est donner tout ce qu'on a dans le ventre et de se dire j'ai été là Peu importe qu'on divorce, qu'on machin, qu'on rate un truc. Mais est-ce que j'ai été là ? Beaucoup de jeunes sont tout le temps avec leur iPad, leur machin. Moi, quelqu'un qui ne me regarde pas dans les yeux, qui n'est pas complètement là avec moi, il n'a plus l'affaire. Moi, ce qui me frappe avec les patrons, c'est que plus je monte dans la hiérarchie et que je suis avec des gens valables, mais le mec, il est complètement là. Ça ne lui viendra pas l'idée de laisser son iPhone sonner, etc. Il est 100% là. Alors, des fois, ils sont fatigués, ils sont même des fois en burn-out, puisque j'en coach, mais au moins, ils sont là. Donc, le vrai respect, notez-le, c'est être là. Et je dirais même que vous n'aurez plus du tout de regrets après, notez-le bien. C'est-à-dire que quand on a donné ce qu'on avait dans la relation, dans son travail, comme vous dans la conférence depuis tout à l'heure, en partant, je sais que vous n'aurez rien raté. Moi, je vous aurais donné tout ce que je peux, et vous, vous aurez pris ce que vous pouvez. Du coup, il n'y aura pas de regrets. Donc notez-le, la bonne affaire, quand on est là, c'est qu'il n'y a plus de place pour le regret, parce qu'on a livré la bête. Tandis que moi, ce que je me suis dit quand j'ai divorcé, je me suis dit étais-tu vraiment là ? Est-ce que nous étions vraiment ensemble ? Et là, presque la dépression qui est venue. Ça a été très dur pour moi. Alors je me suis dit plus jamais Dorénavant, je serai là. Vous avez compris ? C'est très important. Ce qui est important déjà, c'est soit d'être bien dans ses pompes. Quelqu'un qui ne va pas bien, quelqu'un qui n'a pas pris soin de lui parce qu'il le vaut bien, ne pourra pas donner aux autres. Et donc, ensuite, qu'est-ce qu'on va appeler l'altruisme ? Et ça, c'est l'abbé Pierre qui me l'a appris. C'est réussir son égoïsme à travers l'autre. c'est-à-dire à travers son enfant. Mais ça continue à être de l'égoïsme, sauf que ça me fait plaisir de tout mettre en œuvre pour que lui réussisse. Et donc, au lieu que nous soyons le simple centre de cet égoïsme, l'enfant devient un objet de transitivité. Ce qui fait que la vraie formule ne devrait pas être je t'aime mais je m'aime C'est-à-dire que je t'aime ça ne veut rien dire. Qu'est-ce que ça veut dire ? Ça veut dire en fait, moi, il y en a un, il y en a être bien avec toi, ce quoi, ici, et toi, être mon objet de plaisir. Et moi, il y en a être bien en ce moment avec toi. Donc, notez-le, l'intelligence émotionnelle nous dit je t'aime n'existe pas. C'est de l'hypocrisie. En fait, la vraie formule, c'est je m'aime à travers toi Donc, qu'est-ce que c'est qu'un couple ? C'est une mutualisation d'égoïsme. Qu'est-ce que c'est ? Évidemment. Et d'ailleurs, pour garder cette mutualisation, ça va s'appeler la jalousie. Touche pas à mon mec. Parce que c'est mon territoire, c'est mon mec. Qu'est-ce que c'est qu'un village ? C'est une mutualisation d'égoïsme, parce qu'on ne va pas chacun avoir notre église. Qu'est-ce que c'est qu'une entreprise ? C'est une mutualisation d'égoïsme. Et quand on est dans une entreprise, tous les salariés se moquent de l'entreprise. Ce qui les intéresse, c'est qu'ils ont trouvé un bras de levier par rapport à leur égoïsme et leur plaisir à ce moment-là. Mais si on leur propose 500 euros de plus chez le concurrent, le lendemain, ils vont chez le concurrent, c'est évident. Et ils font un pot de revoir en disant je vous aime, vous êtes toute ma vie En attendant, ils se cassent, poussent. C'est évident. Donc, en fait, il faut arrêter de se... L'intelligence émotionnelle nous dit arrêtons d'être hypocrite et de nous cacher la face. Donc, notez-le, ce qui intéresse l'autre, c'est lui. Donc, le bon commercial, puisqu'il y a des DCF ici, c'est pas de parler du produit, c'est de parler du client. Ce qui intéresse le client, c'est en quoi c'est une bonne affaire pour lui. Ce qui intéresse l'autre, c'est en quoi t'es une bonne affaire pour moi. Et l'égoïsme, c'est ce qui fait tourner le monde. Donc, l'intelligence émotionnelle nous dit, prends soin de ton égoïsme à travers l'autre, mais surtout, sois plus intéressé qu'intéressant. Intéresse-toi à lui. C'est lui qui l'intéresse, ce n'est pas toi. Donc, en lui disant, t'es belle ma chérie, voilà, ça c'est intéressant parce que tu rassures l'égoïsme de ta chérie. Alors, le maillon fort, c'est la dernière chose que je voulais vous dire avant qu'on regarde vos tests. C'est l'émotion. Alors, les émotions, on en a dit l'essentiel. Et souvenez-vous, la joie est. C'est-à-dire, je ne vais pas m'occuper de la joie. Par contre, ce qui est important, ce sont le club des gènes. Et les gènes, vous les avez ici et dans la vignette que je vous ai mise dessous. Vous avez même les causes profondes de ces gènes. Si vous dites à quelqu'un, homme ou femme, Oh, dis donc, bravo pour ce que tu as réussi hier etc., la personne va être rassurée sur sa compétence. Si on devait, au niveau archaïque, dit Freud, pour les femmes, c'est faire un enfant, pour l'homme, c'est l'érection. Ce qui fait qu'à Knossos, etc., à Karnak, vous voyez, il n'y a que des sexes en érection, parce que les pharaons étaient obsédés par ça. Est-ce que je suis compétent sexuellement ? Pour les femmes, ça va se traduire par avoir un enfant. beaucoup de femmes ont un enfant juste pour se montrer qu'elles sont compétentes. Croyez-moi, 22 ans de coaching, si vous saviez ce que j'ai entendu. Eh oui, c'est la façon d'être compétente, et c'est pour ça que les hommes vont aux putes. C'est pour ça que chacun a sa compétence. Voilà. Alors, deuxième chose, deuxième peur. La peur féminine, notez-le bien. La peur féminine, c'est peur de ne pas être aimée. Donc quand vous dites à quelqu'un Oh, ça fait plaisir de te voir vous le rassurez dans son équation féminine de la peur. Et donc vous faites de l'intelligence émotionnelle. Donc voilà les deux grandes peurs. Donc quand on dit à un enfant Oh, c'est bien, t'as fait popo, etc. eh bien il est content dans sa compétence, les mamans, eh bien elles t'aiment très fort. Voilà, alors là, c'est la totale et l'enfant n'a plus peur. C'est la base de l'intelligence émotionnelle. La deuxième des émotions qui vient tout de suite derrière la peur, qui s'enchaîne, c'est la surprise. Qu'est-ce que c'est que la surprise ? La surprise, c'est une réinitialisation de notre projet, quel qu'il soit, même si c'est une bonne surprise. Donc j'aimerais que vous notiez que la surprise, de toute façon, est fatigante. Si par exemple, Benjamin pensait rentrer tranquillement chez lui le soir, puis pour lui faire une bonne surprise, Jennifer, il ouvre la porte, elle a invité 15 potes et 30 amis et plus la famille. Je prétends que ce n'est pas une si bonne surprise que ça, et que pendant 20 minutes, il va falloir qu'il s'en remette. Pourquoi ? Parce qu'il va falloir réinitialiser ce à quoi il avait pensé d'abord. Donc notez-le, en intelligence émotionnelle pure, il n'y a pas de bonne et de mauvaise surprise. La surprise fatigue de toute façon, parce que c'est réinitialiser ce que j'avais prévu, même si c'est bon. Et donc, potentiellement, faites très attention, ça fatigue. Je veux insister là-dessus et tout de suite, pour que vous le compreniez, je vais vous montrer deux choses. Ici, regardez, j'avais découpé dans le Figaro, c'était le prix Nobel de l'économie. Il avait, je ne sais plus comment il s'appelle, Jean Tirole. Il a mis, j'ai mis 30 minutes pour me remettre de mes émotions. Maintenant, regardez la vidéo que je vais vous montrer. On ne peut pas avoir de meilleure surprise. Regardez dans quel état était Giscard d'Estaing. Le 8 juin, pour moi c'était émouvant parce que j'étais sur un char en Autriche, on était sur la tête, on était à pied, devant simplement, de la première armée française, on avait traversé l'Allemagne, on arrivait en Autriche, on était dans un petit champ, un pré, avec des pommiers, etc. Et tout d'un coup on dit on s'arrête, c'est fini, c'est l'armée civile. Et on a été pris par surprise, on ne s'attendait pas à ça. On a été d'ailleurs à la fois très choqués et très troublés parce que c'était la fin d'une grande aventure devenue victorieuse en fait et nous n'avions plus l'objectif à ce moment-là. Donc on s'est arrêté, on s'est dit qu'est-ce qu'on fait, qu'est-ce qu'on devient. quelque part dans le cerveau, c'est ça qui est important, souvenez-vous, c'est fatigant. Je n'ai pas dit qu'à l'arrivée, on n'est pas content. Je dis juste qu'il faut s'en méfier, il faut l'utiliser avec parcimonie, parce que c'est fatigant. Ensuite, la chose dans cette vignette que je voudrais que vous vous souveniez, c'est que, et ça vous allez le répéter avec moi, c'est l'avant-dernière chose que vous allez répéter, c'est, écoutez bien, on a des milliers de sentiments, mais il n'y a que six émotions. C'est-à-dire que qu'est-ce que c'est qu'un sentiment ? Un sentiment, c'est un mix de plusieurs émotions. Et on ne peut pas travailler sur une holding, c'est-à-dire sur un sentiment. On ne peut travailler que sur les émotions qui composent le sentiment. Et donc, dès que vous n'avez pas l'un de ces cinq mots, Peur, surprise, tristesse, dégoût, colère, dites-vous que c'est un sentiment dont il s'agit. Si quelqu'un arrive et dit à ce moment-là j'ai les glandes j'ai les glandes, ce n'est pas une émotion, c'est un sentiment. Il faudra dire en quoi tu as été surpris, en quoi tu es triste, en quoi tu es dégoûté et de quoi tu as peur. Si vous prenez la jalousie dont on parlait tout à l'heure, la jalousie, on ne peut pas travailler en intelligence émotionnelle sur la jalousie. Il faut dire, tiens, tu es jaloux, qu'est-ce qui t'a surpris, en quoi t'es triste, en quoi t'as été dégoûté et de quoi t'as peur. Et là, on peut travailler. Donc, j'aimerais que vous redisiez avec moi, on ne peut pas travailler sur un sentiment, on ne peut travailler que sur les émotions qui le composent. Vous êtes prêts ? 3, 4. On ne peut pas travailler sur un sentiment, on ne peut travailler que sur les émotions qui le composent. On ne peut pas travailler sur un sentiment, on ne peut travailler que sur les émotions qui le composent. On ne peut pas travailler sur un sentiment, on ne peut travailler que sur les émotions qui le composent. Applaudissez-vous. Et alors, pour terminer sur cette vignette, je dirais que la porte d'entrée la plus élégante, notez-le, c'est la surprise. C'est-à-dire, si par exemple, votre chéri, suite à une soirée, commence à vous faire une crise de jalousie, si vous lui dites de quoi tu as peur, en quoi tu es dégoûté, ça ne le fera pas. Ça a un peu arde. Tandis que si vous lui dites, qu'est-ce qui t'a surpris ? Et ça marche particulièrement en entreprise, parce que je sais qu'il y a des gens ici qui sont peut-être dans les RH ou autres. Donc, pensez que la surprise est la porte d'entrée la plus élégante. Quand vous sentez que quelqu'un a une colère, puisque la colère est la résultante qui éclate, Au bout de toutes ces émotions. La colère est toujours le bruit de toute cette roue des émotions. Donc ce qui est intéressant, ce n'est pas la colère en tant que telle, c'est où est le dégoût, où est la tristesse, où est la surprise, où est la peur. Quelqu'un qui est en colère, si vous commencez par lui dire Mais mon chéri, qu'est-ce qui t'a surpris ? Qu'est-ce qui s'est passé ? Eh bien là, c'est une porte élégante. Mais si vous commencez par lui dire De quoi t'as peur ? ça ne le fera pas. Donc pensez à cela, la porte d'entrée la plus élégante, c'est la surprise, et particulièrement évidemment en entreprise. Mais pensez à agir, action, c'est-à-dire l'intelligence émotionnelle, c'est action. Et dites-vous qu'il y a un livre qui vient de sortir sur le pape. qui s'appelle Ainsi fait-il Il y en a marre des soit-il les gens y conduisent mal. Non, et moi, je fais quoi ? Qu'est-ce que vous faites ? Alors, regardez. Regardez ce Just do it avec cet acteur américain absolument génial. Et ensuite, on fera une petite cérémonie de fermeture. Hier, vous avez dit demain. Donc faites-le ! Faites vos rêves se réaliser ! Faites-le ! Certaines personnes rêvent de succès pendant que vous vous réveillez et vous travaillez fort. Rien n'est impossible ! Vous devriez arriver au point où n'importe qui ne quitterait. Et vous ne vous arrêtez pas là ! Non ! Qu'est-ce que vous attendez ? Faites-le ! Just do it ! Yes you can ! Just do it ! If you're tired of starting over, stop giving up. L'idée c'est just do it. Qu'est-ce que vous allez faire ? Parce qu'il y a un phénomène qu'on appelle le Big Mo aux Etats-Unis. Le Big Mo, c'est le Big Moment. Quand on a vécu quelque chose de fort comme ce soir, pendant 21 jours, vous allez être transporté par cette énergie. Mais si vous ne la mettez pas en action dans les 21 jours, c'est foutu. Quand vous allez à un spectacle et que vous êtes encore rempli de cette énergie, vous avez 21 jours. Donc il vous reste 21 jours à partir de maintenant pour mettre en route quelque chose. Donc ce que je vous souhaite, c'est que chacun vous mettiez en route un élément que vous avez soit appris, soit découvert, soit re-appris ce soir, car je ne vous ai rien appris. Je n'étais qu'un perroquet. Je n'ai rien inventé. Sous-titrage Société Radio-Canada

answer:Le texte aborde l'importance de l'intelligence émotionnelle dans notre quotidien et la façon dont elle peut enrichir notre vie personnelle et professionnelle. En s'appuyant sur les travaux d'Antonio Damasio, l'auteur souligne que les émotions et la raison sont intimement liées et que comprendre cette connexion peut améliorer la prise de décision et le bien-être général. La notion de "rendez-vous avec soi" est introduite comme un moyen essentiel pour cultiver cette intelligence, en s'accordant du temps pour réfléchir à ses actions et leurs impacts. L'auteur explique que nos émotions sont des alliées précieuses qui nous aident à réagir aux situations, à condition de les appréhender intelligemment. Il met en lumière le concept des "marqueurs somatiques" de Damasio, qui montre comment nos expériences émotionnelles passées influencent nos décisions futures. L'intervention souligne aussi l'importance du pardon, de la gestion du stress, et de la communication effective pour gérer et transformer positivement nos émotions. Enfin, l'auteur insiste sur l'urgence d'agir sur les prises de conscience suscitées par l'intelligence émotionnelle, en soulignant l'importance de la mise en action des apprentissages pour éviter le regret et vivre pleinement.

question:Summarise the following transcript: david: So for the people that might've missed this we've launched this initiative where we will translate Validated high quality prompts from English to different languages. And we've asked the Agilea community and the Hugging Face community to take the lead in terms of leading these translation efforts and communicating and all these kinds of things. So I think gathering, yeah, more and more high quality prompts for different languages, because sometimes these automatic translations, it can be off. And yeah, that's one of the reasons that we. Yeah. I want the community to help and pitch in and yeah, Krishna has offered to, to lead a handy example. So if if someone might be interested in that, feel free to pitch in and go to the hugging face discord. Go to the data is better together page and then you'll find it there. If anyone wants to do a brief introduction, feel free to say hi, or maybe tell us something, what you're working on, but otherwise I will maybe ask Elad Levi to give a brief introduction about what he's been doing on intent based prompt calibration. How that's, how that works. It was translated in a practical way into the super cool out of prompt open source project that you've been working on together with three friends, I believe. And how you actually built that on top of Argella and what's the idea behind that. So feel free to, to give a brief introduction. Glad to have all of you here and then I'll give the mic over to Elad. So you can start if you want. elad: Great. Okay. Thank you very much. Okay. So what we will talk today a little bit. So I will first describe the challenge of prompt sensitivity and I will show some very surprised results of how much large language models are really sensitive to the prompt. Then what I will describe is the previous methods for prompt optimizations and the issues that they have. I will then describe our contribution, our methods and how we tackle these issues. And then we will discuss a little bit about the auto prompt. So we build an open source system that implement these methods. And using also Argila as a UI server. So it's like a really cool system. And we will talk about the system and we'll show some demo. So about prompt sensitivity. So you have these two prompts. So in the first one, it's almost exactly the same phrasing. Just is does instead of is, adding some review. Cool. looking exactly the same. So if you will ask some human annotators and give it as an instruction to the annotators, I'm sure you will get the exact same results. There's no really difference. But when you're asking a large language model, you are seeing here that that the there is like very High discrepancy between the results. So we prepare some spoiler benchmark. It doesn't really matter what exactly was was this benchmark, but it's contained about 500 samples. We run these 10 times, so we get statistical significant differences. And you can see that there is a huge gap between the performances of the two probes. So GPT 4, which You think about it as state of the art very similar to human, but he perform significantly different on these semantic differences. Now, another thing that many people's are doing is they take this prompt and they like GPT 4 suggest a prompt. So we instruct GPT 4 to take this initial prompt and generate some prompt, which is better. And you can see that it looks really nice. You can see that is really describing the task of spoiler classification. And he add description of what is spoiler. So it's looking it looks amazingly well, however, the results are even worse than what we saw earlier. So there was no improvement. And although it looks good, the results are not great. So even if you if something is look good. When you evaluate it, the performance might be not that great. Another issue that we try to tackle is the prompt ambiguity issue. So when you have a prompt, you can see here the example of advertisement classification, yes or no. You describe the prompt in a few sentences. So always the ambiguity of the language. Of what to do in all the edge cases. So you see here the example of describing some situation of purchase. Some of the people will say that this is advertisement, and some of the people will say that this is not advertisement. There is this ambiguity. And this is something that we want to to resolve this ambiguity issue of the prompt itself. Now, the last thing that I want to explain about the prompt sensitivity is the changing in the behavior over time. So even if you have found a great prompt, You are satisfied with the results. OpenAI is changing constantly the version. They want to update the model, the knowledge base of the model. And you can see here that there is huge discrepancy between the results between the different versions, both with respect to the accuracy of the model on some tasks. So you see the GPT 4 has decreased accuracy on this task and GPT 3. 5 actually increased the accuracy. So it's really flickery, but also with respect to the behavior of the model, which is like even more important. So you can see that less stop apologizing or other behavior, for example, verbosity. So the behavior of the model constantly change and you need it to all the time update your prompt accordingly. So the conclusion is that we cannot try the prompt engineering process, the regular prompt engineering process. And we need to do prompt engineering correctly, doing some optimization, methodology correct. And there are a few methods that suggest how to do it. And I would like to describe a very recent work, which is called OPRO. And what we did, they did in this method is a very simple process. So they start with some initial prompt. Let's figure it out. So they try to solve some mathematical questions and let's figure it out. What's the instruction? It's like a chain of, you can think about it as a rephrasing of a chain of thought. And then they evaluate the score of this initial prompt. Okay. So they have the benchmark. They use a well known benchmark of GSM 8K. Okay. Okay. And you see the score 61. Okay. So the evaluation is done according to the benchmark. And then they took the prompt itself and the score and they provide it in, they put it in some meta prompt and the meta prompt described the task the task that need to be done. So he described that you have Few prompts and they score this data score and he asked GPT 4 in this case He asked the model to provide a new prompt which has higher score. Okay, so you provide few Samples and they score and you ask the model itself to provide a new prompt which has better score and you could Provide him also like few examples of the prompts in which there was a failure And then you can see, this is the new prompt that was suggested. Let's solve the problem. And now you continue the process. So you continue to evaluate this prompt. You put it in the meta prompt. And you let the model do these iterations until it gets to the calibrated prompt. This is iterative process. And you can see here the results that they tested on BigBench hard, and they got up to 50 percent improvement on 2023 challenging reasoning task. So they got some really nice improvement. So this is the OPPO paper. Now there is more recent work which called prompt engineering prompt engineer. I will not go into the full details of this work. This is work that simply did a prompt engineering on this metaprompt. We have the metaprompt that provide the new prompt. So they did just prompt engineering. many experiments. This is experimental paper. And I will not, most of the things they test actually not improved the metaprom, but they have something that we take from this paper of splitting up the to two to two steps such that in the first step, we provide the current prompt, a false example, like the error and ask him to provide some error analysis. And then we put this error analysis to the meta prompt to generate the new prompt. Okay. So this is the idea that we took and indeed, this is something that improving the results. Now, this metaprompt and using large language model as optimizer, the advantage of this approach for port optimization, that you can run it on every black box LLMs. You can run it on OpenAI proprietary model or Gemini. Whatever you like, you just use it on this black box LLM. However, the challenge with this approach that you need to iterate it with this very strong LLM, because the metaport requires strong LLM, on some high quality large benchmarks. So in order to improve it and give a good feedback to the model. You need very high quality, a large benchmark. And in many cases, this is not feasible or it's hard to get. either because there is a low resource task or the data set is a little bit biased. And of course, this is very costly. Running GPT 4 on very large data set with large amount of iteration in Opro they did About one thousand and six hundred iteration. So this is something which is very costly. It's get to up to a few hundred dollars. And we didn't have the money to do it. So we need to come with a new method which is much more efficient. So what was our idea? So our idea was very simple. You see you again, you give the model the initial prompt. Generate a spoiler movie classification, and then you see the nice UI for Agila. The model, the LLM model generates synthetic samples, so it generates about 10 synthetic samples. And you annotate them, yes, no, according to your labels. And so you annotated a few examples. And then after you finish this annotation you are letting the model optimize on top of this benchmark. So now we are using the same idea of Metaprom, where we provide this feedback, and we do the prompt optimization. So we get a new prompt, and we now generate a new synthetic data for the new prompt. Now the main idea that the synthetic data that we are generated are not like standards standard data set, but it's a boundary cases. So it's ask the cases that best differentiate between the different classes. So this is like the main tweak that we are doing. So this, since we are going on the boundary cases, we got very, distinguish very effective data set. Although we have a few samples because it can separate and isolate all these edge cases. So the idea is to calibrate according to the user intent and the user intent. You get it from these synthetic boundary cases. And here you can see the example. So what the model is getting is just the task description and the initial point. You see the the advertisement classification, yes or no. And this is the generated synthetic data that the model generate. We already saw it. It's really a boundary cases. So the model predict no, and this is a legitimate answer. But however, I was the annotator and I decided I want to be more conservative. And I told the model this example is indeed advertisement because you mentioned some company. And that in the next iteration, the model immediately understand and fix the prompt. And that he said that even if it was indirect advertisement. Oh, you just mentioned a competitor store. Then also in this case, annotated as yes. Now you see that now in this iteration, there was a synthetic data. In which there is no mentioning of of any company. So in this case, the model was over conservative. So it predicted as advertisement. Although I, as annotator, I said that it's not an advertisement. Again, this is an edge case. And after a few iterations, this is iteration six. The model catch all the nuance and get to the prompt accuracy of 97%. Okay, so he catch all these like boundary cases and was able to refine the prompt correctly. And it seems to work like very effectively. So about the evaluation process, so how we evaluate and compare ourselves to the previous method. So we want to evaluate ourselves on a real world use case, not on classic benchmark, reasoning benchmark like GSMK, because we thought that like these are not really a benchmark that, you take for, these are not real world use cases. So what We did a very simple evaluation process. We take very powerful model, GPT 4, and we provide very highly detailed prompt. You see this very high detail prompt for the spoiler classification task. So this prompt contain like all the nuance of what to do in all the edge cases, and it simulates human intent to a given task. And we use this prompt as a ground truth. So this is the prompt that was used to create the ground truth. Then we start with some initial prompt and try to converge to this prompt. We compare ourselves to the ground truth. And we compare between the different methods. We use the IMD review data set. This is a classical data set. And we test with respect to different tasks. And you can see the results. So on top, this is the red one is our method. And you can see below that this is Opro and the prompt engineering approach. And you can see that our method outperform previous methods. And you don't need too much samples with only between 30 and 50 samples. This is enough in order to get a very high quality results. And so you get to 30, between 30 and 50 samples. This is all that needs to be done. In all the cases we test on 30 iterations of the the model. So it's really not cost too much, not it's, it should not cost more than 1. This is like the target that that we, we achieve. And you can see here the example. So this is the initial prompt that we already saw that this we will contain a spoiler. You can see here that o simply rephrased the prompt. And this is prompt or indeed this is what it do is just phrasing the prompt, but it's very effective. We saw already that the prompts are highly sensitive and you get a boost in the performances. This is the prompt engineering. So indeed this is more descriptive prompt and the accuracy, of course is better. And this is our method. And you see how this is a highly detailed prompt. And it indeed catch all the nuance of the ground truth form and you get a boost in the performances you get to 92. 3 accuracy. So it's indeed improved significantly on top of the base prompt. Now, we, of course, did some ablation study, and that all the components are really essential. Of course, the synthetic data improves significantly, but what is interesting is that also the iterative process of generating the synthetic data in each iteration and not generating directly from the start all the synthetic data. This is also provide an improvement and it's really it's not surprising because in each step we prove that the problem and we want now to ask boundary cases on the new improved prompt and not on the bad initial prompt. Now, if we want to understand the effect of our method. So one of the important things that we are doing. is shifting the data distribution. So if you look at the spoiler classification task, so in the real world data set, in the IMDB review data set, less than 20 percent of the data set contain a real spoiler that was labeled as yes by the ground truth. But in our synthetic data set, We instructing the meta prompt to the model to provide a balanced dataset. Okay, so this is the part of the instruction, and you can see that indeed the data, the synthetic dataset is much more balanced, set, balanced dataset is close to the 50%. Yes and no. So this very important property of the synthetic data set, and we will see immediately the effect of this data shift distribution. So another thing we want to tackle that was not done in previous paper is tackling the generation task. So everyone working on the classification task, but Most of the real world use cases are a gener generation point and not classification point. And we suggest a new method to handle a generative task, which is very simple. So what we did, we take the generation port, so this is the generation port, generate some movie review with specific style and we translate it. To a ranking prompt, we did it by simply ask GPT 4 to generate from this generation prompt an initial ranking prompt. We already know that he knows to do it something that looks good. And you can see that he's doing some nice job. He ranked it between 1 to 5 this is the rank. And he provide a nice instruction for the ranking prompt. And then what we did. So we calibrated the ranking prompt. So we treated this classification. We already know how to solve a classification task, and we treat the calibration of the ranking prompt as a classification task. So in each iteration, we we generate synthetic edge cases. And we ask the human annotator to rank between one to five. And after we have this calibrated ranking prompt, we use it as a ranking model. So we generate synthetic samples using the current prompt that that we investigate. We evaluate using the ranking prompt, so there is no need for human intervention in the second part for human annotation. And we analyze the prompt performance according to the score. And using this iterative process, we suggest a new prompt, and now rank it. So for this second part, there is no human annotation. Only the first part. Again, you need only 30 examples of ranking prompt, and this is all you need for the generation task. So very simple. And you can see here the results. So This is the initial results. And using our method, you get to a calibrated prompt, which get almost to score a five, which is the best score. So the method is highly effective. Now what is interesting is when you apply these these methods on OPO and pe, this idea, you actually get degraded performances. comparing to the initial prompt. So you're getting worse prompt. And the reason for it is that if you are looking at the ranking Histogram of the real world of the IMD review view data set It looks like not surprisingly as some normal distribution around the mean, ranking around the tree So you have very few very few examples which get to the five score you see here very few examples. Now so now when you are fitting on top of this data set, the ranking problem, you will not able to distinguish correctly between four and five because there's not enough samples. So your anchor that you fit is not is not properly. Now of course the generation of the review of GPT four is at least something between four and five. It will not get improved, it will get worse because it doesn't know how to separate well. But remember that we are having the power, the synthetic data, to shift the distribution of the samples that were generated. And we ask the model in the metaprom to provide boundary cases between rank 4 and 5. And you can see the distribution here. And now when I'm fitting a ranking function on top of these, this data, he will be able to distinguish well between rank four and five. So the second phase in which we optimize the generation part is much more effective. And this goes to the boost in the performances. So this is like really nice results that we have. So now a little bit about Autopront. So Autopront is a system, an open source system that we build which implement this method. And it's nice because the system is really modular, and you can replace each component very easily. We already have very large users and companies that are using this system in production and got amazing feedback. So the system is composed by three main components. There is the dataset, which is connected, of course, to the database. But there is also some semantic DDoP in order not to generate synthetic data that are too much resembled to each other. So We also do some semantic deduping. The main class is the estimator class, and it is either and you can use it as the annotator and the predictor. So the annotator is the part that is responsible to generate the ground truth. And there is the predictor that is all that this is the optimization part that you are optimizing. And the ator can be connected to our gi a server with the amazing ui of our gi a and the predictor is, again, connect to the LLM, but you can change it. You can plug the annotato annotator to the LLM service, and of course we have the evaluator. And you can modify easily the score function. So the evaluator get the prediction and annotation and decide what is the score, how to compare between them. So what we can do with auto prompt, so we can do besides prompt optimization, which is the reason for the system. There is like also nice things that can be done with the system besides the productization. So one of them is the prompt distillation. So if suppose you have you are happy with the prompt in GPT four, and you want now to save cost and you want a GPT three prompt that, keep the performances of GP, GPT 4. So we call it a distillation. We want to distill the knowledge from GPT 4 to GPT 3. So what you can do, you can easily use The GPT-4 prompt as the annotator and train the GPT-3 as the predictor, and he will try to fit the performances of the GPT-4. So this is really nice. Another things that, that we are doing. It's prompt squashing and prompt batching. These are methods to squeeze your prompt. So if you have multiple prompts and or you want to send multiple samples in the same prompt, we are doing also this optimization. And again, this is for saving a cost. It's really helping in saving the cost. And of course, we are also, you can also use the report just to generate a synthetic benchmark and use it. Only for this purpose. And okay, so let me show you some example. And so I hope that you are seeing my screen. So in order to run, you simply, you can use, we have the run pipeline. You just need to write the prompt, the initial prompt and the task description. And you run it and you get to the, It will pop up in our Gila UI. You can just annotate. Yes, no, yes, no. And the moment you finish to annotate, you have your 10 example. You are seeing here okay. You are seeing here that it start to there is a listening on the Argilas server side. This is the implementation that we have. And the moment you finish, he process the sample. And in a second, he will suggest you see you got a new prompt. Of course, accuracy is hard because I annotated randomly. But you can see that it start generating a new prompt. Now, if you want, for example, to use LLM and not using an argila, so the only things that you need to do, so you see here, this is the annotation, the annotator the annotator configuration when I use the method argila, and I use the config file, And in order to make it some to replaces with LLM, I just need to replace the annotator with LLM. You can see here I'm using Google Jimini Pro. I have some instruction. This is the prompt that is used as the ground truth. So let's go to the run pipeline. And switch it to the to this annotator. And he will now do the iteration without using the the human annotator feedback. He will just compare himself to Germany 4. Let's wait for a second until we see okay, so we take so here you see generate the initial sample. It takes a little bit of time because we are asking a GPT 4 model and it's a long prompt, so it takes a few seconds. Here we finish here we finish the initialization. And now you can see that it is running Gemini. without using the annotation pipeline. So you can see that he's run, he's processing the sample, now he creates the annotation. In the second step, now he predicts, so this is GPT 3 and a half, so it's much faster. And now he will suggest a new prompt. So it's very simple. You don't need the human intervention in this one. So you get like this new prompt and it will get improved and improved. So to conclude, Okay, so elad: the conclusion. First of all, optimizing your prompt is a must. You must use a valid benchmark. I think this is like the main message from this presentation. Whatever method you use some benchmarking. Don't trust that something looks nice. The second thing is that LLM can do anything. They can generate synthetic data, they can do optimization very well, they are a highly effective tool that you need to use. And of course, Autoprompt is an open source. You are welcome to use it again. We have many companies that are already use it. It's completely free and open source and you can try and test it. And I encourage you. Thank you very much. david: Cool. Thank you for the presentation. It was really cool to to see and to hear in practice, and I think we got quite a lot of questions. So I'm going to try if you're ready for the fire. So maybe the last one that I I asked was, do you see any difference between the human and AI feedback during the optimization? So is the human feedback normally better in terms of generalization or in terms of intent based pump calibration? It's. On par. elad: So I usually, yeah, for sure. Human feedback is better when you have, most of our instruction to annotators are not we are some pro we show them an example. We instruct them very well. We do few iteration. And this is something that that you are not doing with the letter. You just trying to. Do some prompt engineering and optimize it. And this is the main advantage of using human annotator. Now, the other advantage is cost and efficiency. I'm using also LLM as annotator in some cases. But, for most of the tasks, I usually prefer to do it like human annotation. david: For most production cases. Okay, that's good to hear as also one of the things that Danny often mentions like our CEO that yeah, you really need to dive into the data to really understand what's going on, even though optimization to a certain up until a certain point is very useful and convenient, of course. And how do you see something like, for example for a basic classification example given that you're doing annotation, how do you see this approach differ compared to something like setfit? Because if you're annotating examples, you might be able to use those synthetically generated Entries as a way to actually train a set for classifier instead of using like LLMs to do that. elad: So our system actually support using using your own custom data set. I think that if you, the synthetic data is making it much more efficient and it's able to if you have a few hundred annotated samples on your data set, and yeah. You are fine with the cost of doing like this iteration on this data set then. It's very good approach. And we have actually spent last three meetings with the, some companies that wants to help with auto pom to to remove the synthetic part. They will just want use the, want to use the optimization, and this is. For sure, but in many cases you don't have this data set and you want to do it like more efficiency, efficiently. And for this, like you, the, I think the system is like very very well, very optimal. david: Okay, cool. And in terms of the synthetic parts, then you would replace it with your own data set and then just sample random samples from there and then iterate based on those. Okay. elad: Yeah, so we have the option also to insert a few samples of your data set, and when we generate synthetic data, we are not generating them from scratch. We are using these examples of the real data set and generate samples which are resembled to this data set. In order to not have some distribution shift. So this is very important. And in the I'm the big review that said we did it. We use about 10 samples off real reviews because otherwise, when you're generating from scratch completely, And then for sure you'll get suboptimal results because the model don't know the real world distribution. david: Yeah, that makes sense. And in terms of you mentioned forms calibration being able to use for generative tasks as well. Do you see any differences in for example the number of rankings that you force the model to define and some other differences in terms of how you would be able to use this in an optimal way? Because within this label, we are doing a lot of these Data set generation tasks. So it might be very interesting for us whenever we create a synthetic data set to actually use this. So what would be best practices in that sense? elad: Yes, I think that it's very challenging to annotated ranking task. I tried to do it and it's not easy to separate between this delicate separation between three and four. So I What we will do like we are trying we will do it like we will add it to the repo soon We want to add like few not one rank because this is challenging, but many attributes and rank it according to different labels and attributes And I think that this will be like a real Improvement to the current system because the current challenges the current challenge is that it's not easy to human to annotate properly and consistently. between one to five. It's not that easy task. david: Yeah, we have seen something similar with the data is better together efforts and these kind of things. And yeah, and the data are also different than even in the morning or in the afternoon, people tend to be more. Yes. And what's the trade off in your opinion in terms of having the potentially additional front length after prompt calibration or optimization versus a potential marginal gain in accuracy of the model elad: compared to david: what? Maybe the marginal gain in accuracy. So if you don't gain as much accuracy improvements. Based on the after the optimization compared to having the additional costs, so to say of having a longer prompt in, in terms of calling your LLM using your element in production after. elad: So there are like two. We want to actually important engineering. They have the ability. They instruct the model to create very compressed from and limited the number of tokens regarding the optimization process. We have, of course, like some stop criteria and we can, you have, you can limit the budget. So you can say that you want to optimize you have 20. So this is really nice. You can actually put the number of dollars that you want to optimize and optimize until like this stage. But of course we have some stopping criteria. If there's no improvement after fuel iteration, then the model stop to iterate. And you are not, david: okay. And yeah, feel free. If people have other questions in between, feel free to post them in the chat. Then I'll answer them later or leave viral. Sorry. And Chris had one question about is what's for you are goods. Number of examples to use a seed for the synthetic data generation when the task is a bit more niche for example, a medical domain or the finance domain, which might require a bit more funds. elad: Yeah, it's a good, from our experience again. using some 10, 20 real examples, and then let the model to generate about another 30. It's working great on many of the productive use cases that we saw. But of course, elad: We need. I need to look at the task in order to say exactly what is the number. And I'm suggesting to simply play a little bit with it. There are very few hyper parameters that you need to play with them. But again, the basic recipe, will work, I think very nicely also on this child david: yeah. So I'm not sure if you have any more comments from your side. Otherwise. Given that there are no more questions, I would like to thank you for the presentation. I really enjoyed it and I'm sure we will use the framework for some optimization with this label and potentially it might be interesting to see if there's a an integration possible. Yeah, as always the slides will be shared along with the presentation and everything will be uploaded for the people that maybe joined later. Keep track of YouTube and LinkedIn and other socials. And I would like to thank everyone for coming and then hope to see you soon to during one of one of our other meetups or somewhere online. So thanks. Thanks a lot for coming. Thank you very much. Goodbye.

answer:David introduced an initiative to translate validated, high-quality prompts from English to other languages with the help of the Agilea and Hugging Face communities. This initiative emerged as a response to the sometimes inaccurate results of automatic translations. He also mentioned the opportunity for community members to contribute, specifically highlighting Krishna's leadership in a translation example. David then invited Elad Levi to discuss his work on intent-based prompt calibration and the development of a super cool open-source project based on this concept, using Argella as a UI server. Elad began his talk by addressing the challenge of prompt sensitivity in large language models (LLMs) and the surprising variations in results from seemingly minor semantic changes in prompts. He introduced the concept of prompt optimization, opposed to standard prompt engineering, to address these challenges effectively. Elad detailed his work on an open-source system called Autoprompt, which implements innovative methodologies for prompt optimization, including generating synthetic data for edge cases, iterative calibration, and using LLM as an optimizer. Elad also discussed the importance of using valid benchmarks and the significant role of human annotator feedback in improving the generalization and calibration of prompts. He touched upon the limitations and challenges of generating and annotating ranking tasks and suggested methods for efficiently handling generative tasks through calibration and iteration. Throughout the presentation, Elad showcased the effectiveness of their methodology in comparison to previous methods and emphasized the system's flexibility, modularity, and potential for cost-saving in production environments. In the Q&A session following the presentation, concerns about the trade-off between incremental gains in model accuracy versus the cost of longer prompts and additional iterations were addressed. Elad recommended starting with a small but representative set of real examples to seed synthetic data generation, especially in niche tasks. The session concluded with an acknowledgment of the potential for further optimization and integration with existing systems and a thank you to attendees.

question:What implications, advantages and benefits does Autoprompt help realise in business or enterprise domains?

answer:The development and introduction of Autoprompt into business or enterprise domains carry several significant implications, advantages, and benefits. By focusing on the effective optimization of prompts for large language models (LLMs), Autoprompt addresses key challenges in AI and natural language processing (NLP) applications, which can translate into tangible business outcomes. Below are some of the key benefits and advantages Autoprompt can bring to businesses: # 1. **Enhanced Accuracy and Efficiency** Autoprompt's methodology for prompt optimization and calibration can lead to more accurate responses from models, reducing the discrepancies caused by poorly optimized prompts. This increased accuracy can benefit a range of applications, from customer service bots to advanced analytics, ensuring that businesses receive or provide more reliable information. # 2. **Cost Reduction** The system's efficiency in optimizing prompts without requiring extensive human intervention (beyond initial annotations) or large amounts of data can significantly reduce operational costs. This is particularly relevant when using costly LLMs, where Autoprompt's approach to generating synthetic edge cases and iterative optimization can minimize the computational resources required. # 3. **Rapid Deployment** By providing a framework that can quickly calibrate prompts to a specific use case or intent, Autoprompt can speed up the deployment of NLP applications. This rapid deployment capacity enables businesses to respond more swiftly to market changes or internal demands, maintaining a competitive edge. # 4. **Customization and Flexibility** The modularity and openness of Autoprompt allow for extensive customization, making it adaptable to various industries and tasks, from finance and healthcare to customer service and beyond. This customizability ensures that businesses can use the system in a way that best fits their unique needs and challenges. # 5. **Quality Improvement and Innovation** Autoprompt’s ability to fine-tune prompts based on human annotator feedback and synthetic boundary cases enables businesses to improve the quality of their AI-generated content or responses. This could lead to more innovative applications of NLP in areas not previously considered feasible due to the limitations of generic language models. # 6. **Scalability and Flexibility** Businesses can scale their NLP capabilities more effectively, thanks to Autoprompt’s efficient use of computational resources and its adaptability to changes in model behavior over time. As LLMs evolve, Autoprompt provides a framework for ensuring that applications remain accurate and relevant, without requiring substantial redevelopment work. # 7. **Enhanced Data Privacy and Security** In domains where data privacy is paramount, Autoprompt’s use of synthetic data for training and optimization can help mitigate risks associated with sensitive data. By generating and using synthetic edge cases, businesses can refine their models without directly exposing or relying on potentially sensitive real-world data. # Conclusion Autoprompt assists businesses in harnessing the full potential of large language models, transforming how they interact with data, serve customers, and innovate. Its focus on prompt optimization through synthetic data generation, iterative calibration, and efficient use of computational resources makes it a valuable tool for any business looking to leverage NLP technologies to their fullest.

question:Unlike other 'prompt optimisers ' that purely rely on large language models to optimise prompts, what is the advantage of using human annotation in the prompt optimising loop? Explain using examples.What are the benefits, if any, of using both synthetic data and human annotation in this case?

answer:The integration of human annotation into the prompt optimization loop, as seen in systems like Autoprompt, offers distinct advantages over systems that rely purely on Large Language Models (LLMs) for prompt optimization. This hybrid approach of combining human insights with synthetic data generation provides a more nuanced, accurate, and effective way to tailor language models for specific tasks or domains. Below, we explore the advantages and benefits of incorporating both human annotation and synthetic data into the prompt optimization process: # 1. **Enhanced Accuracy and Relevance** Example: Consider a customer service chatbot trained via LLMs for a healthcare provider. An LLM might generate prompts based on extensive data from various sources but might not discern the subtle nuances of patient sensitivity or legal compliance requirements inherent to healthcare conversations. - **With Human Annotation:** Human annotators can evaluate and adjust prompts to ensure they meet ethical, legal, and empathy standards crucial for patient interactions. This results in a chatbot that is not only accurate but also appropriately sensitive to user needs. # 2. **Reduction in Biases** Example: LLMs can inadvertently perpetuate biases present in their training data, which can be problematic in applications requiring fair and unbiased responses, such as loan eligibility assessment tools. - **With Human Annotation:** By incorporating human feedback into prompt optimization, businesses can identify and correct biases within generated responses, ensuring fairer decision-making processes. Human annotators can flag prompts leading to biased outputs, guiding the model towards more equitable outcomes. # 3. **Adaptability to Context and Intent** Example: In content generation for diverse audiences, such as news summaries for users from different cultural backgrounds, the context and user's intent play crucial roles. - **With Human Annotation:** Humans can understand contexts and intents more deeply than current AI, allowing for the adjustment of prompts to better suit specific audience preferences or sensitivities. This leads to more engaging and contextually appropriate content. # 4. **Improved Data Privacy and Ethical Assurance** Example: Sensitive applications, like those involving personal financial data or proprietary business information, require stringent privacy controls. - **With Synthetic Data and Human Annotation:** Using synthetic data ensures that models can be trained without exposing sensitive real-world data. Human annotation adds an additional layer of scrutiny to ensure that synthetic datasets and resulting prompts uphold privacy and ethical standards. # 5. **Precision in Niche Domains** Example: Applications in niche domains, such as legal document analysis or technical support for specialized equipment, often involve complex, domain-specific language. - **With Human Annotation:** Experts can guide the model to understand the terminology and concepts unique to these fields, thereby improving the precision of prompts and responses. This tailoring ensures that the language model becomes a more effective tool for professionals in the field. # Benefits of Using Both Synthetic Data and Human Annotation: - **Balanced Approach:** Combines the scalability of synthetic data generation with the nuanced understanding of human annotators, creating a more effective optimization loop. - **Quality Control:** Human annotators serve as a quality check for the synthetic data, ensuring it aligns well with real-world scenarios and expectations. - **Customization Capability:** Enables the creation of custom-tailored language models that can precisely meet the specific needs of a business or application. - **Dynamic Adaptation:** Facilitates the continuous improvement of prompts as human annotators can incorporate feedback from real-world interactions and emerging trends or changes in domain knowledge. In summary, the combined use of synthetic data and human annotation in optimizing prompts for LLMs harnesses the strengths of both approaches. It ensures that the resulting language models are accurate, unbiased, sensitive to user needs and contexts, and aligned with ethical standards, making them far more effective for a wide range of applications.

Released under the stanford License.

has loaded