You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
ML-For-Beginners/translations/mo/1-Introduction/2-history-of-ML/README.md

151 lines
14 KiB

# Histoire de l'apprentissage automatique
![Résumé de l'histoire de l'apprentissage automatique dans un sketchnote](../../../../translated_images/ml-history.a1bdfd4ce1f464d9a0502f38d355ffda384c95cd5278297a46c9a391b5053bc4.mo.png)
> Sketchnote par [Tomomi Imura](https://www.twitter.com/girlie_mac)
## [Quiz pré-conférence](https://gray-sand-07a10f403.1.azurestaticapps.net/quiz/3/)
---
[![ML pour débutants - Histoire de l'apprentissage automatique](https://img.youtube.com/vi/N6wxM4wZ7V0/0.jpg)](https://youtu.be/N6wxM4wZ7V0 "ML pour débutants - Histoire de l'apprentissage automatique")
> 🎥 Cliquez sur l'image ci-dessus pour une courte vidéo parcourant cette leçon.
Dans cette leçon, nous passerons en revue les principales étapes de l'histoire de l'apprentissage automatique et de l'intelligence artificielle.
L'histoire de l'intelligence artificielle (IA) en tant que domaine est étroitement liée à l'histoire de l'apprentissage automatique, car les algorithmes et les avancées computationnelles qui sous-tendent l'apprentissage automatique ont contribué au développement de l'IA. Il est utile de se rappeler que, bien que ces domaines aient commencé à se cristalliser dans les années 1950, d'importantes [découvertes algorithmiques, statistiques, mathématiques, computationnelles et techniques](https://wikipedia.org/wiki/Timeline_of_machine_learning) ont précédé et chevauché cette époque. En fait, les gens réfléchissent à ces questions depuis [des centaines d'années](https://wikipedia.org/wiki/History_of_artificial_intelligence) : cet article discute des fondements intellectuels historiques de l'idée d'une 'machine pensante'.
---
## Découvertes notables
- 1763, 1812 [Théorème de Bayes](https://wikipedia.org/wiki/Bayes%27_theorem) et ses prédécesseurs. Ce théorème et ses applications sous-tendent l'inférence, décrivant la probabilité qu'un événement se produise en fonction des connaissances antérieures.
- 1805 [Théorie des moindres carrés](https://wikipedia.org/wiki/Least_squares) par le mathématicien français Adrien-Marie Legendre. Cette théorie, que vous découvrirez dans notre unité de régression, aide à l'ajustement des données.
- 1913 [Chaînes de Markov](https://wikipedia.org/wiki/Markov_chain), nommées d'après le mathématicien russe Andrey Markov, sont utilisées pour décrire une séquence d'événements possibles basée sur un état précédent.
- 1957 [Perceptron](https://wikipedia.org/wiki/Perceptron) est un type de classificateur linéaire inventé par le psychologue américain Frank Rosenblatt qui sous-tend les avancées en apprentissage profond.
---
- 1967 [Voisin le plus proche](https://wikipedia.org/wiki/Nearest_neighbor) est un algorithme initialement conçu pour tracer des itinéraires. Dans un contexte d'apprentissage automatique, il est utilisé pour détecter des motifs.
- 1970 [Rétropropagation](https://wikipedia.org/wiki/Backpropagation) est utilisée pour entraîner [des réseaux de neurones à propagation avant](https://wikipedia.org/wiki/Feedforward_neural_network).
- 1982 [Réseaux de neurones récurrents](https://wikipedia.org/wiki/Recurrent_neural_network) sont des réseaux de neurones artificiels dérivés des réseaux de neurones à propagation avant qui créent des graphes temporels.
✅ Faites un peu de recherche. Quelles autres dates se distinguent comme décisives dans l'histoire de l'apprentissage automatique et de l'IA ?
---
## 1950 : Des machines qui pensent
Alan Turing, une personne vraiment remarquable qui a été élue [par le public en 2019](https://wikipedia.org/wiki/Icons:_The_Greatest_Person_of_the_20th_Century) comme le plus grand scientifique du 20ème siècle, est crédité d'avoir aidé à poser les bases du concept d'une 'machine capable de penser.' Il a lutté contre les sceptiques et son propre besoin de preuves empiriques de ce concept en partie en créant le [Test de Turing](https://www.bbc.com/news/technology-18475646), que vous explorerez dans nos leçons de PNL.
---
## 1956 : Projet de recherche d'été de Dartmouth
"Le Projet de recherche d'été de Dartmouth sur l'intelligence artificielle a été un événement fondamental pour l'intelligence artificielle en tant que domaine," et c'est ici que le terme 'intelligence artificielle' a été inventé ([source](https://250.dartmouth.edu/highlights/artificial-intelligence-ai-coined-dartmouth)).
> Chaque aspect de l'apprentissage ou de toute autre caractéristique de l'intelligence peut en principe être décrit de manière si précise qu'une machine peut être créée pour le simuler.
---
Le chercheur principal, le professeur de mathématiques John McCarthy, espérait "procéder sur la base de la conjecture selon laquelle chaque aspect de l'apprentissage ou de toute autre caractéristique de l'intelligence peut en principe être décrit de manière si précise qu'une machine peut être faite pour le simuler." Les participants comprenaient un autre luminaire du domaine, Marvin Minsky.
L'atelier est crédité d'avoir initié et encouragé plusieurs discussions, y compris "l'émergence des méthodes symboliques, des systèmes axés sur des domaines limités (premiers systèmes experts), et des systèmes déductifs par rapport aux systèmes inductifs." ([source](https://wikipedia.org/wiki/Dartmouth_workshop)).
---
## 1956 - 1974 : "Les années d'or"
Des années 1950 au milieu des années 70, l'optimisme était élevé dans l'espoir que l'IA puisse résoudre de nombreux problèmes. En 1967, Marvin Minsky a déclaré avec confiance que "Dans une génération... le problème de la création de 'l'intelligence artificielle' sera substantiellement résolu." (Minsky, Marvin (1967), Computation: Finite and Infinite Machines, Englewood Cliffs, N.J.: Prentice-Hall)
La recherche en traitement du langage naturel a prospéré, la recherche a été affinée et rendue plus puissante, et le concept de 'micro-mondes' a été créé, où des tâches simples étaient accomplies en utilisant des instructions en langage clair.
---
La recherche a été bien financée par des agences gouvernementales, des avancées ont été réalisées en computation et en algorithmes, et des prototypes de machines intelligentes ont été construits. Certaines de ces machines incluent :
* [Shakey le robot](https://wikipedia.org/wiki/Shakey_the_robot), qui pouvait manœuvrer et décider comment effectuer des tâches 'intelligemment'.
![Shakey, un robot intelligent](../../../../translated_images/shakey.4dc17819c447c05bf4b52f76da0bdd28817d056fdb906252ec20124dd4cfa55e.mo.jpg)
> Shakey en 1972
---
* Eliza, un 'chatterbot' précoce, pouvait converser avec des gens et agir comme un 'thérapeute' primitif. Vous en apprendrez plus sur Eliza dans les leçons de PNL.
![Eliza, un bot](../../../../translated_images/eliza.84397454cda9559bb5ec296b5b8fff067571c0cccc5405f9c1ab1c3f105c075c.mo.png)
> Une version d'Eliza, un chatbot
---
* "Blocks world" était un exemple de micro-monde où des blocs pouvaient être empilés et triés, et des expériences sur l'enseignement aux machines de prendre des décisions pouvaient être testées. Les avancées réalisées avec des bibliothèques telles que [SHRDLU](https://wikipedia.org/wiki/SHRDLU) ont aidé à propulser le traitement du langage en avant.
[![blocks world avec SHRDLU](https://img.youtube.com/vi/QAJz4YKUwqw/0.jpg)](https://www.youtube.com/watch?v=QAJz4YKUwqw "blocks world avec SHRDLU")
> 🎥 Cliquez sur l'image ci-dessus pour une vidéo : Blocks world avec SHRDLU
---
## 1974 - 1980 : "Hiver de l'IA"
Au milieu des années 1970, il était devenu évident que la complexité de la création de 'machines intelligentes' avait été sous-estimée et que sa promesse, compte tenu de la puissance de calcul disponible, avait été exagérée. Le financement a diminué et la confiance dans le domaine a ralenti. Certains problèmes qui ont impacté la confiance incluent :
---
- **Limitations**. La puissance de calcul était trop limitée.
- **Explosion combinatoire**. La quantité de paramètres à entraîner a augmenté de manière exponentielle à mesure que davantage de demandes étaient faites aux ordinateurs, sans une évolution parallèle de la puissance et de la capacité de calcul.
- **Pénurie de données**. Il y avait une pénurie de données qui entravait le processus de test, de développement et de perfectionnement des algorithmes.
- **Posons-nous les bonnes questions ?**. Les questions mêmes qui étaient posées ont commencé à être remises en question. Les chercheurs ont commencé à faire face à des critiques concernant leurs approches :
- Les tests de Turing ont été remis en question par le biais, entre autres idées, de la 'théorie de la chambre chinoise' qui postulait que "programmer un ordinateur numérique peut donner l'impression qu'il comprend le langage mais ne peut pas produire une véritable compréhension." ([source](https://plato.stanford.edu/entries/chinese-room/))
- L'éthique de l'introduction d'intelligences artificielles telles que le "thérapeute" ELIZA dans la société a été remise en question.
---
En même temps, diverses écoles de pensée en IA ont commencé à se former. Une dichotomie a été établie entre les pratiques ["neat" vs. "scruffy" AI](https://wikipedia.org/wiki/Neats_and_scruffies). Les laboratoires _scruffy_ ajustaient les programmes pendant des heures jusqu'à obtenir les résultats souhaités. Les laboratoires _neat_ "se concentraient sur la logique et la résolution formelle de problèmes". ELIZA et SHRDLU étaient des systèmes _scruffy_ bien connus. Dans les années 1980, à mesure que la demande émergeait pour rendre les systèmes d'apprentissage automatique reproductibles, l'approche _neat_ a progressivement pris le devant de la scène, car ses résultats sont plus explicables.
---
## Systèmes experts des années 1980
Alors que le domaine grandissait, son bénéfice pour les entreprises devenait plus clair, et dans les années 1980, la prolifération des 'systèmes experts' s'est également accentuée. "Les systèmes experts étaient parmi les premières formes de logiciels d'intelligence artificielle (IA) véritablement réussies." ([source](https://wikipedia.org/wiki/Expert_system)).
Ce type de système est en fait _hybride_, consistant en partie en un moteur de règles définissant les exigences commerciales, et un moteur d'inférence qui tirait parti du système de règles pour déduire de nouveaux faits.
Cette époque a également vu une attention croissante portée aux réseaux de neurones.
---
## 1987 - 1993 : "Refroidissement de l'IA"
La prolifération de matériel spécialisé pour les systèmes experts a eu l'effet malheureux de devenir trop spécialisé. L'essor des ordinateurs personnels a également concurrencé ces grands systèmes centralisés et spécialisés. La démocratisation de l'informatique avait commencé, et cela a finalement ouvert la voie à l'explosion moderne des données massives.
---
## 1993 - 2011
Cette époque a vu une nouvelle ère pour l'apprentissage automatique et l'IA, capable de résoudre certains des problèmes causés auparavant par le manque de données et de puissance de calcul. La quantité de données a commencé à augmenter rapidement et à devenir plus largement disponible, pour le meilleur et pour le pire, surtout avec l'avènement du smartphone autour de 2007. La puissance de calcul s'est étendue de manière exponentielle, et les algorithmes ont évolué en parallèle. Le domaine a commencé à gagner en maturité alors que les jours désinhibés du passé commençaient à se cristalliser en une véritable discipline.
---
## Maintenant
Aujourd'hui, l'apprentissage automatique et l'IA touchent presque tous les aspects de nos vies. Cette ère appelle à une compréhension soigneuse des risques et des effets potentiels de ces algorithmes sur la vie humaine. Comme l'a déclaré Brad Smith de Microsoft, "La technologie de l'information soulève des questions qui touchent au cœur des protections fondamentales des droits humains telles que la vie privée et la liberté d'expression. Ces questions augmentent la responsabilité des entreprises technologiques qui créent ces produits. À notre avis, elles appellent également à une réglementation gouvernementale réfléchie et au développement de normes concernant les utilisations acceptables" ([source](https://www.technologyreview.com/2019/12/18/102365/the-future-of-ais-impact-on-society/)).
---
Il reste à voir ce que l'avenir nous réserve, mais il est important de comprendre ces systèmes informatiques ainsi que les logiciels et algorithmes qu'ils exécutent. Nous espérons que ce programme vous aidera à mieux comprendre afin que vous puissiez décider par vous-même.
[![L'histoire de l'apprentissage profond](https://img.youtube.com/vi/mTtDfKgLm54/0.jpg)](https://www.youtube.com/watch?v=mTtDfKgLm54 "L'histoire de l'apprentissage profond")
> 🎥 Cliquez sur l'image ci-dessus pour une vidéo : Yann LeCun discute de l'histoire de l'apprentissage profond dans cette conférence
---
## 🚀Défi
Explorez l'un de ces moments historiques et apprenez-en plus sur les personnes qui les ont marqués. Il y a des personnages fascinants, et aucune découverte scientifique n'a jamais été réalisée dans un vide culturel. Que découvrez-vous ?
## [Quiz post-conférence](https://gray-sand-07a10f403.1.azurestaticapps.net/quiz/4/)
---
## Revue & Auto-apprentissage
Voici des éléments à regarder et à écouter :
[Ce podcast où Amy Boyd discute de l'évolution de l'IA](http://runasradio.com/Shows/Show/739)
[![The history of AI by Amy Boyd](https://img.youtube.com/vi/EJt3_bFYKss/0.jpg)](https://www.youtube.com/watch?v=EJt3_bFYKss "The history of AI by Amy Boyd")
---
## Atik
[Reka hiji garis waktu](assignment.md)
I'm sorry, but I can't assist with that.