IA : ce qu'on en pense et ce qu'on en fait chez Ada Tech School
Ces derniers mois, l’IA est devenue un sujet… électrique. Entre les discours “fin du travail”, “bulle spéculative”, et “c’est magique, je mets tout dans ChatGPT”, on entend surtout beaucoup de bruit. Résultat : pas mal de fantasmes, et une vraie confusion.
Et forcément, à Ada, on est aux premières loges. On forme à la tech, on défend un usage responsable, et surtout on veut que ces compétences restent accessibles à toutes et tous. Alors on s’est dit que c’était le bon moment, avec cet article, de partager :
- comment nous, chez Ada, on regarde l’IA,
- et surtout ce qu’on en fait concrètement dans nos formations.
Déjà, notre point de départ
Pour nous, l’IA n’est ni un gadget, ni une mode passagère. C’est une transformation profonde du travail, des organisations, et même, à terme, de la société. Alors oui, elle automatise une partie de l’exécution. C’est aussi pour ça que le marché bouge si fort : quand l’exécution coûte moins cher, la valeur se déplace. Elle va vers la capacité à imaginer, raisonner, cadrer, faire des choix, assumer une décision.
L’IA est un des facteurs (mais pas le seul, et on prendra le temps d’en parler dans une prochaine édition) pour lesquels les profils juniors ont de plus en plus de mal à trouver leur place.
Et comme tout le monde peut “utiliser ChatGPT”, les profils solides ne sont pas ceux qui savent cliquer et simplement utiliser un outil. Ce sont celles et ceux qui savent :
- formuler une intention claire,
- repérer quand une réponse est bancale,
- vérifier ce qu’ils·elles valident,
- et assumer une décision.
Dit autrement : l’IA met fin aux recettes toutes faites. Et elle agit comme un révélateur, parfois brutal, de nos fragilités collectives. Elle met en lumière :
- notre manque d’esprit critique, nourri par la surexposition à l’information et le réflexe “scroll” des réseaux sociaux,
- notre peur de nous tromper et notre quête de LA bonne réponse, héritées d’un système éducatif qui valorise souvent la conformité plus que le raisonnement,
- la primauté de la vitesse sur la qualité, comme si produire vite valait produire juste,
- et notre dépendance aux outils, souvent conçus ailleurs, faute d’une vraie culture technologique citoyenne qui nous donne les clés pour comprendre, choisir, et arbitrer.
Au fond, c’est ça le piège : confondre assistance et jugement. L’IA peut aider, mais elle ne décide pas à notre place.
Notre position sans détour
On fait le choix de former nos apprenant·es à l’IA parce qu’elle est déjà un outil de travail. Et parce qu’à très court terme, travailler sans la comprendre, c’est prendre le risque de décrocher.
La mission d’Ada, depuis 2019, c’est exactement l’inverse : rendre la Tech accessible et permettre à chacun·e de rester employable, libre et acteur·ice de sa trajectoire professionnelle, quel que soit son parcours de départ. Pas de laisser certain·es sur le bord de la route parce qu’ils ou elles ne viennent pas d’un parcours technique.
Former à l’IA, pour nous, ce n’est donc pas suivre une mode mais éviter qu’une nouvelle fracture des compétences se creuse. Mais je veux être très claire : former à l’IA ne veut pas dire foncer tête baissée. Le sujet n’est pas d’aller vite, mais d’y aller lucidement. Ce qui compte, c’est comment on adopte l’IA : avec quelle méthode, quelles compétences, quelles limites et quelle responsabilité.
Il ne s’agit pas de former des “utilisateur·ices d’outils” mais des architectes capables de travailler avec l’IA sans lui abandonner leur responsabilité, leur esprit critique, leur compréhension métier et leur éthique.
Concrètement, ça donne quoi dans nos formations ?
Dans nos formations métiers (développeur·se fullstack, concepteur·ice d’applications, expert·e en architecture logiciel), on ne commence pas par l’IA. Parce qu’on ne peut pas vérifier ce qu’on ne comprend pas. Et on ne peut pas déléguer ce qu’on ne maîtrise pas un minimum. Nos apprenant·es commencent par construire les fondamentaux :
- logique et raisonnement algorithmique,
- écriture et lecture de code en HTML, CSS, JavaScript, Python,
- qualité logicielle, tests, debug,
- compréhension de systèmes robustes et sécurisés.
Ce n’est qu’ensuite que l’IA entre progressivement dans le jeu, comme un outil de travail encadré :
- on apprend à comprendre ce qu’elle produit,
- à tester, documenter, corriger,
- repérer les biais, les limites, les risques (et les hallucinations),
- et à rester responsable de chaque livrable.
Et pour les professionnel·les non-tech, on a créé Les Essentiels de l’IA, pas juste pour “apprendre des outils” mais pour apprendre l’autonomie professionnelle à l’ère de l’IA :
- comprendre l’IA et savoir quoi lui demander,
- l’utiliser aux bons moments, pas aveuglément,
- développer un esprit critique et attentif face à ses réponses.
Notre but, ce n’est pas de courir après la hype. C’est d’éviter que l’IA devienne une nouvelle frontière entre les "geeks" et les autres. Ada s’engage pour une autre voie : donner à toutes et tous les moyens de comprendre, de juger, et d’agir. Former des profils durables, pas des exécutant·es dopé·es au prompt.
Et surtout : de rendre l’IA utile, maîtrisée, et responsable dans le travail réel. C’est notre position. Elle guide tout ce qu’on construit pour 2026.