ChatGPT rêve-t-il de cavaliers électriques ?

L’article de Mathieu Acher sur les performances de gpt-3.5-turbo-instruct avec diverses variantes.

L’article de Nicholas Carlini sur les performances de gpt-3.5-turbo-instruct sur des puzzles d’échecs.

L’article sur Othello-gpt: « Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task »

Un article de vulgarisation au sujet d’Othello-gpt.

Le premier article d’Adam Karvonen : « Chess-GPT’s Internal World Model ».

Son deuxième article: « Manipulating Chess-GPT’s World Model ».

L’article académique qu’il en a tiré : « Emergent World Models and Latent Variable Estimation in Chess-Playing Language Models ».

L’article de DeepMind « Grandmaster-Level Chess Without Search ».

Sommaire

0:00 – Intro
4:56 – Sponso Infomaniak
6:16 – Premières tentatives et premières difficultés
10:48 – Here comes a new challenger: gpt-3.5-turbo-instruct
13:49 – Testons ça rigoureusement grâce à Mathieu Acher
20:24 – Explorons l’espace des variations possibles
26:29 – L’expérience de Carlini sur les historiques de coups bizarres
29:28 – gpt-4 a beaucoup regressé (mais n’est pas si mauvais)
33:07 – Othello-gpt, par Li et al., preuve d’une représentation interne du jeu
38:21 – Chess-gpt, par Adam Karvonen: encore plus impressionnant
42:38 – « Juste des perroquets stochastiques », vraiment ?
45:06 – Supplément: DeepMind entraîne un LLM à jouer à 2900 Elo
47:17 – Outro

Laisser un commentaire