Skip to content

À quoi ressemblent les émotions des animaux, des humains et des machines ?

Humains

Les humains expriment leurs émotions de différentes manières. Par exemple, la peur peut être exprimée par un cri fort et la tristesse par des pleurs. Cependant, les émotions jouent également un rôle important dans la musique et dans le son de notre voix. Ainsi, les notes d’une chanson ou la voix d’un narrateur peuvent nous amener à ressentir une certaine émotion. Pour cette raison, on a émis l’hypothèse que l’expression des émotions pourrait avoir joué un rôle crucial dans l’évolution du langage et de la musique. 

Écoutez comment les émotions humaines peuvent être différentes ! Que peuvent ressentir les gens et quelles émotions ce qu’ils entendent déclenche-t-il en vous ?

Animaux

Les animaux produisent une multitude de signaux différents, qui sont fortement influencés par leur état émotionnel. Dans le cadre de notre recherche, nous étudions l’impact des émotions sur les systèmes de communication des suricates. En fonction du prédateur et de l’urgence, les suricates utilisent différents cris d’alarme. Cependant, un suricate n’a même pas besoin de voir le prédateur – il suffit d’entendre un cri d’alarme pour provoquer une réaction correspondante. 

Dans cette situation, un suricate a repéré un prédateur sur terre. Cependant, le prédateur est encore loin.

Écoutez comment le cri change à mesure que le prédateur se rapproche et que l’animal devient plus agité :

Machines

Aujourd’hui, les ordinateurs sont capables d’imiter de mieux en mieux les émotions humaines. Par conséquent, il devient plus difficile de distinguer un son généré par une intelligence artificielle de la musique et de la poésie humaines. Cela est devenu possible grâce à l’apprentissage automatique, qui génère des connaissances artificielles sur la base d’expériences antérieures, d’une manière similaire à celle dont les humains acquièrent des connaissances. 

Les fichiers audio suivants ont été générés exclusivement par une intelligence artificielle.

Quiz

Bibliographie

Araya-Salas M & Wilkins M R. (2020). *dynaSpec: dynamic spectrogram visualizations in R*. R package version 1.0.0.

Briefer, E. F. (2018). Vocal contagion of emotions in non-human animals. Proceedings of the Royal Society B: Biological Sciences, 285(1873), 20172783.

Briefer, E. F. (2012). Vocal expression of emotions in mammals: mechanisms of production and evidence. Journal of Zoology, 288(1), 1-20.

Briot, J. P., Hadjeres, G., & Pachet, F. D. (2017). Deep learning techniques for music generation–a survey. arXiv preprint arXiv:1709.01620.

Bryant, G. A. (2013). Animal signals and emotion in music: Coordinating affect across groups. Frontiers in Psychology, 4, 990.

Chatterjee, A., Gupta, U., Chinnakotla, M. K., Srikanth, R., Galley, M., & Agrawal, P. (2019). Understanding emotions in text using deep learning and big data. Computers in Human Behavior, 93, 309-317.

Darwin, C., & Prodger, P. (1998). The expression of the emotions in man and animals. Oxford University Press, USA.

Devlin, E. (2021) POEMPORTRAITS. [online] Artsexperiments.withgoogle.com. Available at: <https://artsexperiments.withgoogle.com/poemportraits/> [Accessed 15 January 2021].

Ellis, R.J. and Simons, R.F., 2005. The impact of music on subjective and physiological indices of emotion while viewing films. Psychomusicology: A Journal of Research in Music Cognition, 19(1), p.15.

Filippi, P., Congdon, J. V., Hoang, J., Bowling, D. L., Reber, S. A., Pašukonis, A., … & Güntürkün, O. (2017). Humans recognize emotional arousal in vocalizations across all classes of terrestrial vertebrates: evidence for acoustic universals. Proceedings of the Royal Society B: Biological Sciences, 284(1859), 20170990.

Filippi, P., Hoeschele, M., Spierings, M., & Bowling, D. L. (2019). Temporal modulation in speech, music, and animal vocal communication: evidence of conserved function. Annals of the New York Academy of Sciences, 1453(1), 99-113.

Finnegan, R. (2018). Oral poetry: its nature, significance and social context. Wipf and Stock Publishers.

Free Text-To-Speech and Text-to-MP3 for German. (2021). Ttsmp3. https://ttsmp3.com/text-to-speech/German/ [Accessed 03 September 2021]

Kim, Y., Soyata, T., & Behnagh, R. F. (2018). Towards emotionally aware AI smart classroom: Current issues and directions for engineering and education. IEEE Access, 6, 5308-5331.

Köbis, N., & Mossink, L. D. (2021). Artificial intelligence versus Maya Angelou: Experimental evidence that people cannot differentiate AI-generated from human-written poetry. Computers in Human Behavior, 114, 106553.

LeDoux, J. (1998). The emotional brain: The mysterious underpinnings of emotional life. Simon and Schuster.

Lau, J. H., Cohn, T., Baldwin, T., Brooke, J., & Hammond, A. (2018). Deep-speare: A joint neural model of poetic language, meter and rhyme. arXiv preprint arXiv:1807.03491.

Liu, Z. (2016). Impact of Soundtrack in Animated Movie on Audience: A Case Study of” LET IT GO” in” FROZEN”.

Misztal, J., & Indurkhya, B. (2014). Poetry generation system with an emotional personality. In ICCC (pp. 72-81).

Mohn, C., Argstatter, H., & Wilker, F. W. (2011). Perception of six basic emotions in music. Psychology of music, 39(4), 503-517.

Oliveira, H. G. (2017, September). A survey on intelligent poetry generation: Languages, features, techniques, reutilisation and evaluation. In Proceedings of the 10th International Conference on Natural Language Generation (pp. 11-20).

Oliveira, H. G., & Cardoso, A. (2015). Poetry generation with PoeTryMe. In Computational Creativity Research: Towards Creative Machines (pp. 243-266). Atlantis Press, Paris.

Perlovsky, L. (2010). Musical emotions: Functions, origins, evolution. Physics of life reviews, 7(1), 2-27.

Poetron. (2021). Poetron. https://www.poetron-zone.de/poetron.php [Accessed 03 September 2021]

Schubert, E., Canazza, S., De Poli, G., & Rodà, A. (2017). Algorithms can mimic human piano performance: the deep blues of music. Journal of New Music Research, 46(2), 175-186.

Turing, A. M. (1950). Mind. Mind, 59(236), 433-460.