diff --git a/hepia_2024/Makefile b/hepia_2024/Makefile
index 6ecc40c6620ba8f0cd63af08296a07267752724e..eb9eecd3bc62c426ca19b786509ddc94981268df 100644
--- a/hepia_2024/Makefile
+++ b/hepia_2024/Makefile
@@ -8,6 +8,8 @@ PDFOPTIONS += --pdf-engine pdflatex
 PDFOPTIONS += -V theme:metropolis
 PDFOPTIONS += -V themeoptions:numbering=none -V themeoptions:progressbar=foot
 PDFOPTIONS += -V fontsize=smaller
+PDFOPTIONS += -V colorlinks=true
+PDFOPTIONS += -V urlcolor=blue
 # PDFOPTIONS += --filter  pandoc-beamer-block
 # PDFOPTIONS += --lua-filter=${FILTERDIR}/tex.lua
 # PDFOPTIONS += --include-in-header=${RESOURCEDIR}/definitions.tex
diff --git a/hepia_2024/figs/carbon_inference.png b/hepia_2024/figs/carbon_inference.png
new file mode 100644
index 0000000000000000000000000000000000000000..33f61baa966b9271aa1a28ffa395da85eb0e32fd
Binary files /dev/null and b/hepia_2024/figs/carbon_inference.png differ
diff --git a/hepia_2024/figs/carbon_training.png b/hepia_2024/figs/carbon_training.png
new file mode 100644
index 0000000000000000000000000000000000000000..e9a60866aeded69776a44f2fb679a5d71ff889cf
Binary files /dev/null and b/hepia_2024/figs/carbon_training.png differ
diff --git a/hepia_2024/figs/training_compute_notable.png b/hepia_2024/figs/training_compute_notable.png
new file mode 100644
index 0000000000000000000000000000000000000000..b34ed539177ea36a81d12d995d9908666bc0b490
Binary files /dev/null and b/hepia_2024/figs/training_compute_notable.png differ
diff --git a/hepia_2024/figs/training_cost_notable.png b/hepia_2024/figs/training_cost_notable.png
new file mode 100644
index 0000000000000000000000000000000000000000..fba90c1901ed1ae38c46aa6c453aef8731b2e516
Binary files /dev/null and b/hepia_2024/figs/training_cost_notable.png differ
diff --git a/hepia_2024/pres.md b/hepia_2024/pres.md
index 6153e252bab4cb63e3ae9b705f69807fd71f9125..c5b93124ca682bc70303da0538d86ee8e74ba145 100644
--- a/hepia_2024/pres.md
+++ b/hepia_2024/pres.md
@@ -2,6 +2,10 @@
 % Orestis Malaspinas et Marc Gay-Balmaz
 % Hepia, 03.06.2024
 
+# Introduction aux modèles génératifs
+
+\Huge Introduction aux modèles génératifs (LLMs)
+
 # Qu'est-ce que l'IA 
 
 * Ensemble de techniques visant à simuler l'intelligence humaine:
@@ -17,10 +21,18 @@
 
 # Que sont les IA générative et les LLMs
 
-* LLM: Un modèle de langage qui permet de générer du texte et d'effectuer des tâches comme la classification. (*Wikipedia*)
+## Définitions
+
+* LLM: Un modèle de langage qui permet de générer du texte et d'effectuer des tâches complexes comme la classification. (*Wikipedia*)
 * IA générative: intelligence artificielle capable de générer un contenu ne se trouvant pas dans son ensemble d'entraînement. (*Wikipedia aussi*)
 
-# Fonctionnement des LLMs (1/5)
+. . .
+
+## Remarque
+
+* Tout ce qui est généré n'est pas nouveau...
+
+# Fonctionnement des LLMs (1/4)
 
 ## Problème de base à résoudre
 
@@ -45,7 +57,7 @@
 * Et ainsi de suite.
 
 
-# Fonctionnement des LLMs (2/5)
+# Fonctionnement des LLMs (2/4)
 
 ## Contraintes sur le "mot suivant"
 
@@ -57,7 +69,7 @@
 
 * Problème complexe à **formaliser** et donc à **implémenter** informatiquement (malgré beaucoup d'efforts).
 
-# Fonctionnement des LLMs (3/5)
+# Fonctionnement des LLMs (3/4)
 
 ## Solution pour les LLMs actuels (GPT-etc)
 
@@ -75,7 +87,7 @@
 
 * Comment trouver les paramètres?
 
-# Fonctionnement des LLMs (4/5)
+# Fonctionnement des LLMs (4/4)
 
 ## Fixer les paramètres
 
@@ -92,21 +104,31 @@
     * Sécurité faible.
     * Droits d'auteur.
 
-# Fonctionnement de LLMs (5/5)
+# Quelques chiffres
 
-## Quelques chiffres
+## Paramètres
 
 * Dalle-2: $3.5\cdot 10^{9}$ paramètres
 * Gemini: $1.6\cdot 10^{12}$ paramètres
 * GPT-4: $1.7\cdot 10^{12}$ paramètres
 
+. . .
+
+## Performances
+
+* Performances "humaines" pour beaucoup d'applications (niveau basique):
+    * classification d'images
+    * mathématiques
+    * compréhension de texte
+    * ...
+
 # Les modèles génératifs marchent bien
 
 ## Efficacité
 
 * Résultats très bien écrits (orthographe, grammaire, style),
 * Arrive à imiter le "style" d'auteurs et autrices,
-* Textes générés sont généralement très convaincants.
+* Textes générés sont généralement **très convaincants**.
 
 . . .
 
@@ -126,9 +148,13 @@
 
 * Dans **tous les cas** il est **impossible** d'avoir une garantie que le contenu est **équivalent** à celui de départ.
 
-# Cas d'utilisation concret (enseignant)
+# Cas concert
+
+\Huge Pour les enseignant/e/s
+
+# Cas d'utilisation concret (enseignant/e/s)
 
-* Utilisation de `bing.com` pour créer un cours d'introduction à l'algorithmique.
+* Utilisation de `Copilot` pour créer un cours d'introduction à l'algorithmique.
 * Questions posées:
     * Créer un syllabus pour 14 séance de 135min chacune (3 périodes).
     * Créer le contenu pour une séance données en 1e année à hepia
@@ -163,7 +189,7 @@
 - Listes, piles, files, arbres.
 - Exemples concrets.
 
-# Cas d'utilisation: séance (1/N)
+# Cas d'utilisation: séance (1/5)
 
 ## Introduction à la Complexité des Algorithmes
 
@@ -179,9 +205,9 @@ Plus précisément, nous nous intéressons au comportement asymptotique de l'alg
 
 . . .
 
-Note: pas mal du tout.
+**Note :** pas mal du tout.
 
-# Cas d'utilisation: séance (2/N)
+# Cas d'utilisation: séance (2/5)
 
 ### Notation "Grand O"
 
@@ -191,9 +217,11 @@ Par exemple, si un algorithme a une complexité en "O(n)", cela signifie que le
 
 . . .
 
-Note: On sait pas ce qu'est **n**, on sait pas non plus comment est définie la taille des données.
+**Note :** Manque de précision: on sait pas ce qu'est **n**, ni ce qu'est la *taille des données*.
 
-# Cas d'utilisation : séance (3/N)
+# Cas d'utilisation : séance (3/5)
+
+\footnotesize
 
 ## Exemple Simple
 
@@ -201,10 +229,10 @@ Considérons un algorithme qui calcule la somme des éléments d'un tableau d'en
 
 ```C
 Début
-  Somme <-- 0  // début et la boucle "Pour" est noté t1
-  Pour chaque élément T[i] du tableau // la comparaison dans la boucle est noté t2
-    Somme <-- Somme + T[i] // addition dans la boucle noté t3
-  FinPour // incrémentation de l'indice i est noté t4
+  Somme <-- 0  // début et la boucle "Pour" = t1
+  Pour chaque élément T[i] du tableau // comparaison dans la boucle = t2
+    Somme <-- Somme + T[i] // addition dans la boucle = t3
+  FinPour // incrémentation de l'indice i = t4
 Fin
 ```
 
@@ -217,18 +245,18 @@ Autrement dit, lorsque `n` tend vers l'infini, le temps d'exécution est proport
 
 . . .
 
-Note: La formule est fausse, le deuxième `t2` ne devrait pas être là.
+**Note :** Erreur: la formule est fausse, le deuxième `t2` ne devrait pas être là.
 
-# Cad d'utilisation : séance (4/N)
+# Cad d'utilisation : séance (4/5)
 
 Il est important de noter que cette évaluation en "pire des cas" ignore la nature des données (par exemple, si le tableau est trié ou non). 
 Cependant, elle nous donne une idée générale de la performance de l'algorithme.
 
 . . .
 
-Note: Cette remarque n'a rien à faire là et n'est pas du tout reliée à ce qui précède.
+**Note :** Cette remarque n'a rien à faire là et n'est pas du tout reliée à ce qui précède.
 
-# Cas d'utilisation: séance (5/N)
+# Cas d'utilisation: séance (5/5)
 
 ## Bibliographie
 
@@ -239,7 +267,7 @@ Source : conversation avec Copilot, 6/2/2024
 3. Complexité d’un algorithme – l'Informatique, c'est fantastique. <https://info.blaisepascal.fr/nsi-complexite-dun-algorithme/>.
 4. Comprendre la complexité des algorithmes. <https://www.sfeir.dev/front/comprendre-la-complexite-des-algorithmes/>.
 5. Introduction à la complexité algorithmique - Université de Limoges. <https://www.irem.unilim.fr/OLD/fileadmin/documents/2015_01_04-Introduction_complexite_algorithmique.pdf>.
-6. undefined. https://bing.com/search?q=.
+6. undefined. <https://bing.com/search?q=>.
 
 # Comparaisonn avec une vraie création de cours
 
@@ -248,3 +276,142 @@ Source : conversation avec Copilot, 6/2/2024
 3. Création de zéro ou reformulation d'un contenu (et donc) **appropriation**.
 4. Citation des sources et des références pour les élèves.
 
+. . .
+
+Reprendre tel quel similaire à lire un livre contenant des erreurs et approximations.
+
+# Utilisation par les élèves
+
+\Huge Utilisation par les élèves
+
+# Résolution de problèmes
+
+* Exercices courts
+* Travaux pratiques
+* Rendu écrit (dissertation, rapport, mémoire)
+
+. . .
+
+* Pour un retour / correction rapide et efficace
+* Pour se lancer sur un problème
+* Pur obtenir des informations sur un sujet
+* Corriger orthographe, grammaire, et style
+
+# Effet sur l'apprentissage: risques
+
+* L'utilisation intensive de l'IA est mauvaise pour la consolidation des apprentissages:
+    * Pas de travail reformulation/réinterprétation,
+    * Pas besoin de comprendre les questions,
+    * Pas besoin de conprendre les réponses,
+    * Globalement: très grande passivité des élèves.
+
+. . .
+
+* Empêche d'offrir des références solides et reproductibles.
+
+. . .
+
+* Peut offrir un retour rapide ou aider au démarrage, pour autant que... les réponses soient **justes**.
+
+# Fraude et probité (1/2)
+
+## Détection de la fraude
+
+* Détecteurs "d'IA" marchent à 60\% (au mieux). [Artificial Intelligence Index Report](https://aiindex.stanford.edu/wp-content/uploads/2024/05/HAI_AI-Index-Report-2024.pdf)
+* Détecteurs de plagiat / copie marchent bien!
+* Ce qui marche le mieux est le style **toujours le même** de ces outils.
+
+# Fraude et probité (2/2)
+
+## Citation
+
+* On recommande de citer l'IA utilisée et la date. C'est **insuffisant**:
+    * On devrait donner l'ensemble des prompts de la session,
+    * L'historique *complète* d'utilisation (cookies),
+    * On contrôle pas le modèle exact, l'ensemble d'entraînement, le pré-prompt, etc.
+    * La réponse donnée peut être un plagiat.
+
+. . .
+
+Copilot: "Unlike **solving the Navier–Stokes equations directly**, LBM operates **on a lattice**, simulating **fluid density** through **streaming and collision processes**."
+
+Wikipedia: "Instead of **solving the Navier–Stokes equations directly**, a **fluid density** **on a lattice** is simulated with **streaming and collision** (relaxation) **processes**."
+
+# Études sur l'efficacité des modèles pour l'informatique
+
+* Sur des questions populaires: 50% des réponses sont fausses
+* Problème: 30\% des sondés croient la mauvaise réponse plutôt que la bonne (biais dû au style).
+
+Source: <https://dl.acm.org/doi/pdf/10.1145/3613904.3642596>
+
+# Le coût des modèles génératifs
+
+\Huge Coût des modèles génératifs
+
+# Coût computationnel: exponentiel
+
+![](figs/training_compute_notable.png)
+
+**Comparaison :** 10 ans du plus puissant super calculateur Suisse (no 6 mondial).
+
+Source: [Artificial Intelligence Index Report](https://aiindex.stanford.edu/wp-content/uploads/2024/05/HAI_AI-Index-Report-2024.pdf)
+
+# Coût économique: exponentiel
+
+![](figs/training_cost_notable.png)
+
+**Comparaison :** 10% du budget annuel de l'EPFL.
+
+Source: [Artificial Intelligence Index Report](https://aiindex.stanford.edu/wp-content/uploads/2024/05/HAI_AI-Index-Report-2024.pdf)
+
+# Coût écologique d'entraînement: exponential
+
+![](figs/carbon_training.png)
+
+**Comparaison :** 50 Suisses pendant 1 an pour GPT-3.
+
+Source: [Artificial Intelligence Index Report](https://aiindex.stanford.edu/wp-content/uploads/2024/05/HAI_AI-Index-Report-2024.pdf)
+
+# Coût écologique d'inférence: exponentiel
+
+![](figs/carbon_inference.png)
+
+**Comparaison :** Recherche Google vaut 0.2g.
+
+Source: [Artificial Intelligence Index Report](https://aiindex.stanford.edu/wp-content/uploads/2024/05/HAI_AI-Index-Report-2024.pdf)
+
+# Conclusion
+
+\Huge Conclusion et avenir
+
+# Conclusion
+
+* Les modèles génératifs ont une efficacité impressionante,
+* Ils ont néanmoins souvent tort, tout en donnant une grande confiance dans la réponse.
+* Le coût-bénéfice est à évaluer:
+    * Quel bénéfices pour les élèves?
+    * Quel bénéfices pour les enseignantes et enseignants?
+    * Le coût économique/écologique est énorme et empire à chaque novuelle version.
+
+# Mon avis
+
+* Ces modèles sont impressionnants, mais d'une utilité limitée pour l'enseignement et l'apprentissage:
+
+*Il faut être un expert pointu pour les utiliser efficacement et détecter les fautes comises.*
+
+## Mon conseil
+
+Si vous ne pouvez pas dire si un contenu est correct en *secondes*, n'utilisez pas une IA générative.
+
+## Non ce n'est pas pareil que...
+
+* Copier Wikipedia, Stackoverflow, etc. Tous ces sites ont un système **d'experts**.
+
+# L'avenir
+
+* L'avenir est très incertain: 
+    * Évolution de ces modèles (+efficaces? +sûrs? -énergivores?)
+    * Évolution de la législation (meilleure protection des usagers? des créateurs? 
+        * Loi européenne: <https://vcsi.org/eu-ai-act-comprehensive-regulation/>
+* A suivre donc, mais prudence...
+