Alors que la plupart des gens déplorent les énormes vagues, les marins passionnés sont déjà partis à la découverte du nouveau continent. Récemment, Karpathy, directeur de l'IA de Tesla et meilleur streamer de l'IA qui est revenu sur OpenAI il n'y a pas si longtemps, a retweeté le dernier épisode du podcast Latent Space, pensant que suivre le développement de l'IA est devenu un travail à plein temps. nécessaires, et la demande dépassera de loin les ingénieurs d'algorithmes d'apprentissage automatique d'aujourd'hui. Dans ce numéro, nous continuerons d'analyser plus en détail le portrait des capacités des talents en IA qui seront nécessaires à l'avenir.
Pensée sensorielle
Nous essayons de mettre en avant une déduction plus divergente et une réflexion approfondie basée sur le contenu de l'article, bienvenue pour échanger.
**Technologie de modèle contre atterrissage de produit : **Alors que la plupart des gens déplorent les énormes vagues, les marins passionnés sont partis à la découverte de nouveaux continents. Les artisans qui ont inventé la boussole et construit des navires ont joué un rôle à l'époque, et ensuite, les marins et les ouvriers ont élargi le territoire.
**Software 3.0 Era :**SenseAI met à nouveau l'accent sur le réseau d'agents. Cette fois, la machine vient à nous et le langage naturel deviendra le package linguistique qui répondra à la plupart des besoins de développement, libérant davantage l'imagination humaine. Les agents utilisent la densité d'interaction et la collaboration en réseau pour résoudre l'exécution, et ce que les humains doivent faire, c'est proposer une imagination de bas niveau, détruire et reconstruire.
Cet article a un total de 3255 mots, et il faut environ 9 minutes pour le lire attentivement
01. Nouveau poste : ingénieur IA
Nous observons un "déplacement vers la droite" de l'IA appliquée générationnelle, motivé par les capacités émergentes et la disponibilité open source/API des modèles sous-jacents. Une série de tâches d'intelligence artificielle qui ont pris 5 ans et une équipe de recherche à terminer en 2013 peuvent maintenant être complétées avec seulement de la documentation API et un après-midi libre.
L'API est universelle : les ingénieurs en IA peuvent aller à gauche pour optimiser/héberger des modèles, et les ingénieurs de recherche peuvent aller à droite pour créer des applications au-dessus de l'API, mais leurs forces relatives et leurs bases techniques sont claires.
Cependant, le travail le plus difficile réside dans les détails de mise en œuvre spécifiques.À l'heure actuelle, LLM a encore les défis suivants en termes d'évaluation réussie, d'application et de production :
** 1. Modèle : ** De l'évaluation des plus grands modèles GPT-4 et Claude aux plus petits modèles open source Huggingface, LLaMA et autres.
** 2. Outils : ** Des outils de liaison, de récupération et de recherche de vecteurs les plus populaires tels que LangChain, LlamaIndex et Pinecone, au domaine émergent des outils proxy tels que Auto-GPT et BabyAGT.
3. Actualités : Le nombre d'articles, de modèles et de techniques publiés chaque jour augmente de manière exponentielle avec l'attention et le capital, au point que garder un œil sur tous ces développements de pointe est devenu presque un travail à plein temps. .
Le LLM crée un emploi à temps plein. L'ingénierie logicielle incubera une nouvelle sous-discipline, se concentrera sur l'application de l'IA et utilisera efficacement la pile technologique émergente, tout comme « ingénieur en fiabilité du site », « ingénieur en exploitation et maintenance du développement », « ingénieur de données » et « Ingénieur Analytique » en tant que va-et-vient.
** Les ingénieurs IA se lèveront pour représenter ce type de rôle. **
Presque toutes les startups ont une forme de groupe de discussion sur l'IA. Ces groupes passeront de groupes informels à des équipes formelles, comme Amplitude, Replit et Notion l'ont déjà fait. Ces milliers d'ingénieurs logiciels travaillant à la production d'API IA et de modèles OSS, que ce soit en temps d'entreprise ou les nuits et les week-ends, sur Slack d'entreprise ou Discord autonome, seront spécialisés et réunis sous un seul titre - ingénieur IA. Il s'agira probablement du travail d'ingénierie le plus demandé au cours de la prochaine décennie.
Des plus grandes entreprises comme Microsoft et Google, aux startups de pointe comme Figma (acquise par Diagram), Vercel (RoomGPT par Hassan El Mghari) et Notion (Notion AI par Ivan Zhao et Simon Last), aux hackers indépendants comme Simon Willison, Pieter Levels (Photo/InteriorAI) et Riley Goodside (maintenant chez Scale AI). Ils gagnent 300 000 $ par an en faisant de l'ingénierie d'indices chez Anthropic et 900 000 $ en créant des logiciels chez OpenAI. Ils passent des week-ends libres à travailler sur des idées à AGI House et à partager des astuces sur /r/LocalLLaMA2. Ce qu'ils ont tous en commun, c'est qu'ils transforment les progrès de l'intelligence artificielle en produits réels qui sont utilisés par des millions de personnes presque du jour au lendemain.
**Aucun n'a de doctorat. Lorsqu'il s'agit de publier des produits d'IA, vous avez besoin d'ingénieurs, pas de chercheurs. **
02, les ingénieurs IA remplaceront les ingénieurs ML
La demande d'ingénieurs en IA augmentera rapidement à l'avenir. Actuellement sur Indeed, les ingénieurs ML ont 10 fois plus d'opportunités d'emploi que les ingénieurs IA, mais le taux de croissance plus élevé de l'IA laisse penser que ce ratio s'inversera d'ici 5 ans.
Tableau des tendances mensuelles de l'emploi pour HN Who's Hiring
Tous les titres de poste sont à sens unique, mais certains sont utiles. Nous sommes méfiants et las du débat sémantique sans fin entre l'IA et le ML, mais nous sommes bien conscients que le rôle conventionnel d'"ingénieur logiciel" est parfaitement capable de créer des logiciels d'IA. Cependant, une question récente sur Ask HN sur la manière de percer dans l'ingénierie de l'IA révèle une perception fondamentale qui existe toujours sur le marché :
Capture d'écran juin 2023 : réponses les plus votées à "Comment percer dans l'ingénierie de l'IA"
La plupart des gens considèrent toujours l'ingénierie de l'IA comme une forme d'apprentissage automatique ou d'ingénierie des données, ils recommandent donc la même pile technologique. Mais vous pouvez être sûr qu'aucun des ingénieurs en intelligence artificielle hautement efficaces mentionnés ci-dessus n'a effectué un travail équivalent au cours Andrew Ng Coursera, ils ne connaissent pas PyTorch et ils ne connaissent pas la différence entre un lac de données et un entrepôt de données.
** Bientôt, personne ne suggérera de commencer l'ingénierie de l'IA en lisant Attention is All You Need, pas plus que vous n'apprendrez à conduire en lisant les dessins d'un Ford Model T. Bien sûr, comprendre les fondamentaux et l'historique est toujours utile, et cela peut vraiment vous aider à trouver des innovations et des gains d'efficacité/capacité qui ne sont pas encore entrés dans la conscience générale. Mais parfois, vous pouvez utiliser les produits directement et connaître leurs qualités par expérience.
Certes, le renversement des ingénieurs IA et des ingénieurs ML ne se fera pas du jour au lendemain. Les gens veulent naturellement étoffer leur CV, remplir des cartes du marché et se démarquer en citant des sujets approfondis plus faisant autorité. Cela dit, l'ingénierie rapide et l'ingénierie de l'IA se sentiront désavantagées par rapport à celles qui ont une solide formation en science des données/apprentissage automatique pendant longtemps. Cependant, l'économie de l'offre et de la demande finira par l'emporter, et la demande d'ingénieurs en IA dépassera de loin celle des ingénieurs en ML.
**03. Pourquoi maintenant ? **
Le modèle de base est un "apprenant à quelques coups", présentant la capacité d'apprendre même le transfert à zéro coup dans le contexte, ce qui va au-delà de l'intention initiale du formateur de modèle. En d'autres termes, les personnes qui ont créé ces modèles ne savaient pas exactement de quoi ils étaient capables. Ceux qui ne sont pas des chercheurs LLM peuvent découvrir et tirer parti de ces capacités simplement en passant plus de temps à interagir avec les modèles et en les appliquant à des domaines de recherche sous-estimés (par exemple, l'application de Jasper à la rédaction).
Microsoft, Google, Meta et les grands laboratoires de modèles fondamentaux ont monopolisé les rares talents de recherche, fournissant essentiellement des API de « recherche IA en tant que service ». Vous ne pouvez pas les embaucher, mais vous pouvez les louer - si vous avez des ingénieurs en logiciel dans votre équipe qui savent comment travailler avec eux. ** Il y a environ 5 000 chercheurs LLM dans le monde, mais il y a environ 50 millions d'ingénieurs en logiciel. Les contraintes d'approvisionnement déterminent l'émergence d'un ingénieur IA "hub" pour répondre à la demande du marché. **
**3. Réserve GPU. **Bien sûr, OpenAI/Microsoft ont été les premiers à faire ce travail, mais Stability AI a déclenché une course aux armements GPU parmi les startups en mettant l'accent sur leur cluster de 4000 GPU.
**4 Action agile directement depuis le produit. ** Au lieu d'exiger des scientifiques des données/ingénieurs ML qu'ils effectuent une lourde collecte de données avant de former un modèle spécifique à un domaine, puis de le mettre en production, les chefs de produit/ingénieurs logiciels peuvent d'abord demander à LLM, et créer/valider une idée de produit, puis Ensuite, obtenez des données spécifiques pour un réglage fin.
Disons que ce dernier est 100x à 1000x plus que le premier, et en suivant le flux de travail "tirer, préparer, viser" de LLM, vous obtenez 10x à 100x plus rapidement que l'apprentissage automatique traditionnel. En conséquence, les ingénieurs en IA pourront valider des produits d'IA à un coût 1 000 à 10 000 fois inférieur. Il s'agit d'un autre développement Waterfall versus Agile, et l'IA est Agile.
**5.Python → Java. ** Data/AI s'est traditionnellement fortement appuyé sur Python, et les premiers outils d'ingénierie d'IA comme LangChain, LlamaIndex et Guardrails sont également issus de la même communauté. Cependant, il y a maintenant autant de développeurs Java que de développeurs Python, de sorte que les outils s'adressent de plus en plus à cette base d'utilisateurs élargie, de LangChain.js et Transformers.js au nouveau SDK AI de Vercel. L'opportunité d'expansion du marché est énorme.
**6. IA générative vs Classificateur ML. ** "IA générative" en tant que terme est tombé en désuétude, laissant la place à d'autres catégories telles que les "moteurs d'inférence", mais expose succinctement la différence entre les outils MLOps existants et les praticiens de l'apprentissage automatique et ce qui est le mieux adapté pour utiliser LLM et Toujours très utile lorsque l'on examine le rôle nouveau et distinct du générateur de texte en image. Alors que les recherches existantes sur l'apprentissage automatique peuvent se concentrer sur des éléments tels que le risque de fraude, les systèmes de recommandation, la détection d'anomalies et le stockage de fonctionnalités, les ingénieurs en intelligence artificielle créent des applications d'écriture, des outils d'apprentissage personnalisés, des feuilles de calcul en langage naturel et des applications de type Factorio.
Chaque fois qu'il y a un sous-groupe avec une origine complètement différente, parlant une langue différente, produisant un produit complètement différent et utilisant un outil complètement différent, ils finissent par se diviser en groupes séparés.
04, 1+2=3 : La programmation à l'ère du logiciel 3.0
Il y a 6 ans, Andrej Karpathy écrivait un article très influent décrivant Software 2.0, opposant la "pile classique" des langages de programmation écrits à la main traditionnels qui modélisent précisément la logique, et les nouveaux réseaux de neurones "d'apprentissage automatique" qui se rapprochent de la pile, permettant aux logiciels de résoudre plus de problèmes que les humains ne peuvent modéliser. Cette année, il a noté dans un article de suivi que le ** nouveau langage de programmation le plus populaire est l'anglais **, remplissant enfin la zone grise qu'il n'avait pas marquée dans son article original.
L'ingénierie est devenue un mème l'année dernière, décrivant comment le travail changera lorsque les gens commenceront à profiter de GPT-3 et de Stable Diffusion. Les gens se moquent des startups d'IA en les appelant "OpenAI wrappers" et craignent que les applications LLM soient vulnérables à l'ingénierie d'indices et à l'ingénierie d'indices inversés. Les barrières existent-elles vraiment ? (Sense Says : Reportez-vous à notre premier article "Intelligent Systems : The Moat of Future AI Enterprises")
Mais l'un des plus grands thèmes en 2023 sera de rétablir le rôle du code écrit par l'homme dans la coordination et le déplacement des capacités LLM, du Langchain de plus de 200 millions de dollars au Voyager soutenu par Nvidia, démontrant l'importance évidente de la génération et de la réutilisation du code. . L'ingénierie est à la fois surmédiatisée et là pour rester, mais la réémergence du paradigme Software 1.0 dans les applications Software 3.0 est à la fois une énorme opportunité et une zone de confusion, créant un espace blanc pour de nombreuses startups.
Un investisseur qui ne peut pas faire d'études de marché n'est pas un bon investisseur
Bien sûr, ce n'est pas seulement du code écrit par des humains. Les histoires de nombreux projets (smol-developer, plus largement gpt-engineer, et les aventures d'autres agents générateurs de code comme Codium AI, Codegen.ai, et Morph/Rift) laissent à penser qu'ils feront de plus en plus partie de l'IA boîte à outils de l'ingénieur. À mesure que les ingénieurs humains apprendront à exploiter l'IA, l'IA sera de plus en plus impliquée dans l'ingénierie.
Jusqu'à ce qu'un jour, dans un avenir lointain, nous levions les yeux et ne soyons plus en mesure de faire la différence entre les deux.
Les références
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
_ L'ingénieur est obsolète ? Une nouvelle carrière promue par les gros bonnets de l'IA est née
Source : SenseAI
Pensée sensorielle
Nous essayons de mettre en avant une déduction plus divergente et une réflexion approfondie basée sur le contenu de l'article, bienvenue pour échanger.
**Technologie de modèle contre atterrissage de produit : **Alors que la plupart des gens déplorent les énormes vagues, les marins passionnés sont partis à la découverte de nouveaux continents. Les artisans qui ont inventé la boussole et construit des navires ont joué un rôle à l'époque, et ensuite, les marins et les ouvriers ont élargi le territoire.
**Software 3.0 Era :**SenseAI met à nouveau l'accent sur le réseau d'agents. Cette fois, la machine vient à nous et le langage naturel deviendra le package linguistique qui répondra à la plupart des besoins de développement, libérant davantage l'imagination humaine. Les agents utilisent la densité d'interaction et la collaboration en réseau pour résoudre l'exécution, et ce que les humains doivent faire, c'est proposer une imagination de bas niveau, détruire et reconstruire.
Cet article a un total de 3255 mots, et il faut environ 9 minutes pour le lire attentivement
01. Nouveau poste : ingénieur IA
Nous observons un "déplacement vers la droite" de l'IA appliquée générationnelle, motivé par les capacités émergentes et la disponibilité open source/API des modèles sous-jacents. Une série de tâches d'intelligence artificielle qui ont pris 5 ans et une équipe de recherche à terminer en 2013 peuvent maintenant être complétées avec seulement de la documentation API et un après-midi libre.
Cependant, le travail le plus difficile réside dans les détails de mise en œuvre spécifiques.À l'heure actuelle, LLM a encore les défis suivants en termes d'évaluation réussie, d'application et de production :
** 1. Modèle : ** De l'évaluation des plus grands modèles GPT-4 et Claude aux plus petits modèles open source Huggingface, LLaMA et autres.
** 2. Outils : ** Des outils de liaison, de récupération et de recherche de vecteurs les plus populaires tels que LangChain, LlamaIndex et Pinecone, au domaine émergent des outils proxy tels que Auto-GPT et BabyAGT.
3. Actualités : Le nombre d'articles, de modèles et de techniques publiés chaque jour augmente de manière exponentielle avec l'attention et le capital, au point que garder un œil sur tous ces développements de pointe est devenu presque un travail à plein temps. .
Le LLM crée un emploi à temps plein. L'ingénierie logicielle incubera une nouvelle sous-discipline, se concentrera sur l'application de l'IA et utilisera efficacement la pile technologique émergente, tout comme « ingénieur en fiabilité du site », « ingénieur en exploitation et maintenance du développement », « ingénieur de données » et « Ingénieur Analytique » en tant que va-et-vient.
** Les ingénieurs IA se lèveront pour représenter ce type de rôle. **
Presque toutes les startups ont une forme de groupe de discussion sur l'IA. Ces groupes passeront de groupes informels à des équipes formelles, comme Amplitude, Replit et Notion l'ont déjà fait. Ces milliers d'ingénieurs logiciels travaillant à la production d'API IA et de modèles OSS, que ce soit en temps d'entreprise ou les nuits et les week-ends, sur Slack d'entreprise ou Discord autonome, seront spécialisés et réunis sous un seul titre - ingénieur IA. Il s'agira probablement du travail d'ingénierie le plus demandé au cours de la prochaine décennie.
Des plus grandes entreprises comme Microsoft et Google, aux startups de pointe comme Figma (acquise par Diagram), Vercel (RoomGPT par Hassan El Mghari) et Notion (Notion AI par Ivan Zhao et Simon Last), aux hackers indépendants comme Simon Willison, Pieter Levels (Photo/InteriorAI) et Riley Goodside (maintenant chez Scale AI). Ils gagnent 300 000 $ par an en faisant de l'ingénierie d'indices chez Anthropic et 900 000 $ en créant des logiciels chez OpenAI. Ils passent des week-ends libres à travailler sur des idées à AGI House et à partager des astuces sur /r/LocalLLaMA2. Ce qu'ils ont tous en commun, c'est qu'ils transforment les progrès de l'intelligence artificielle en produits réels qui sont utilisés par des millions de personnes presque du jour au lendemain.
**Aucun n'a de doctorat. Lorsqu'il s'agit de publier des produits d'IA, vous avez besoin d'ingénieurs, pas de chercheurs. **
02, les ingénieurs IA remplaceront les ingénieurs ML
La demande d'ingénieurs en IA augmentera rapidement à l'avenir. Actuellement sur Indeed, les ingénieurs ML ont 10 fois plus d'opportunités d'emploi que les ingénieurs IA, mais le taux de croissance plus élevé de l'IA laisse penser que ce ratio s'inversera d'ici 5 ans.
Tous les titres de poste sont à sens unique, mais certains sont utiles. Nous sommes méfiants et las du débat sémantique sans fin entre l'IA et le ML, mais nous sommes bien conscients que le rôle conventionnel d'"ingénieur logiciel" est parfaitement capable de créer des logiciels d'IA. Cependant, une question récente sur Ask HN sur la manière de percer dans l'ingénierie de l'IA révèle une perception fondamentale qui existe toujours sur le marché :
La plupart des gens considèrent toujours l'ingénierie de l'IA comme une forme d'apprentissage automatique ou d'ingénierie des données, ils recommandent donc la même pile technologique. Mais vous pouvez être sûr qu'aucun des ingénieurs en intelligence artificielle hautement efficaces mentionnés ci-dessus n'a effectué un travail équivalent au cours Andrew Ng Coursera, ils ne connaissent pas PyTorch et ils ne connaissent pas la différence entre un lac de données et un entrepôt de données.
** Bientôt, personne ne suggérera de commencer l'ingénierie de l'IA en lisant Attention is All You Need, pas plus que vous n'apprendrez à conduire en lisant les dessins d'un Ford Model T. Bien sûr, comprendre les fondamentaux et l'historique est toujours utile, et cela peut vraiment vous aider à trouver des innovations et des gains d'efficacité/capacité qui ne sont pas encore entrés dans la conscience générale. Mais parfois, vous pouvez utiliser les produits directement et connaître leurs qualités par expérience.
Certes, le renversement des ingénieurs IA et des ingénieurs ML ne se fera pas du jour au lendemain. Les gens veulent naturellement étoffer leur CV, remplir des cartes du marché et se démarquer en citant des sujets approfondis plus faisant autorité. Cela dit, l'ingénierie rapide et l'ingénierie de l'IA se sentiront désavantagées par rapport à celles qui ont une solide formation en science des données/apprentissage automatique pendant longtemps. Cependant, l'économie de l'offre et de la demande finira par l'emporter, et la demande d'ingénieurs en IA dépassera de loin celle des ingénieurs en ML.
**03. Pourquoi maintenant ? **
Le modèle de base est un "apprenant à quelques coups", présentant la capacité d'apprendre même le transfert à zéro coup dans le contexte, ce qui va au-delà de l'intention initiale du formateur de modèle. En d'autres termes, les personnes qui ont créé ces modèles ne savaient pas exactement de quoi ils étaient capables. Ceux qui ne sont pas des chercheurs LLM peuvent découvrir et tirer parti de ces capacités simplement en passant plus de temps à interagir avec les modèles et en les appliquant à des domaines de recherche sous-estimés (par exemple, l'application de Jasper à la rédaction).
Microsoft, Google, Meta et les grands laboratoires de modèles fondamentaux ont monopolisé les rares talents de recherche, fournissant essentiellement des API de « recherche IA en tant que service ». Vous ne pouvez pas les embaucher, mais vous pouvez les louer - si vous avez des ingénieurs en logiciel dans votre équipe qui savent comment travailler avec eux. ** Il y a environ 5 000 chercheurs LLM dans le monde, mais il y a environ 50 millions d'ingénieurs en logiciel. Les contraintes d'approvisionnement déterminent l'émergence d'un ingénieur IA "hub" pour répondre à la demande du marché. **
**3. Réserve GPU. **Bien sûr, OpenAI/Microsoft ont été les premiers à faire ce travail, mais Stability AI a déclenché une course aux armements GPU parmi les startups en mettant l'accent sur leur cluster de 4000 GPU.
**4 Action agile directement depuis le produit. ** Au lieu d'exiger des scientifiques des données/ingénieurs ML qu'ils effectuent une lourde collecte de données avant de former un modèle spécifique à un domaine, puis de le mettre en production, les chefs de produit/ingénieurs logiciels peuvent d'abord demander à LLM, et créer/valider une idée de produit, puis Ensuite, obtenez des données spécifiques pour un réglage fin.
**5.Python → Java. ** Data/AI s'est traditionnellement fortement appuyé sur Python, et les premiers outils d'ingénierie d'IA comme LangChain, LlamaIndex et Guardrails sont également issus de la même communauté. Cependant, il y a maintenant autant de développeurs Java que de développeurs Python, de sorte que les outils s'adressent de plus en plus à cette base d'utilisateurs élargie, de LangChain.js et Transformers.js au nouveau SDK AI de Vercel. L'opportunité d'expansion du marché est énorme.
**6. IA générative vs Classificateur ML. ** "IA générative" en tant que terme est tombé en désuétude, laissant la place à d'autres catégories telles que les "moteurs d'inférence", mais expose succinctement la différence entre les outils MLOps existants et les praticiens de l'apprentissage automatique et ce qui est le mieux adapté pour utiliser LLM et Toujours très utile lorsque l'on examine le rôle nouveau et distinct du générateur de texte en image. Alors que les recherches existantes sur l'apprentissage automatique peuvent se concentrer sur des éléments tels que le risque de fraude, les systèmes de recommandation, la détection d'anomalies et le stockage de fonctionnalités, les ingénieurs en intelligence artificielle créent des applications d'écriture, des outils d'apprentissage personnalisés, des feuilles de calcul en langage naturel et des applications de type Factorio.
Chaque fois qu'il y a un sous-groupe avec une origine complètement différente, parlant une langue différente, produisant un produit complètement différent et utilisant un outil complètement différent, ils finissent par se diviser en groupes séparés.
04, 1+2=3 : La programmation à l'ère du logiciel 3.0
Il y a 6 ans, Andrej Karpathy écrivait un article très influent décrivant Software 2.0, opposant la "pile classique" des langages de programmation écrits à la main traditionnels qui modélisent précisément la logique, et les nouveaux réseaux de neurones "d'apprentissage automatique" qui se rapprochent de la pile, permettant aux logiciels de résoudre plus de problèmes que les humains ne peuvent modéliser. Cette année, il a noté dans un article de suivi que le ** nouveau langage de programmation le plus populaire est l'anglais **, remplissant enfin la zone grise qu'il n'avait pas marquée dans son article original.
Mais l'un des plus grands thèmes en 2023 sera de rétablir le rôle du code écrit par l'homme dans la coordination et le déplacement des capacités LLM, du Langchain de plus de 200 millions de dollars au Voyager soutenu par Nvidia, démontrant l'importance évidente de la génération et de la réutilisation du code. . L'ingénierie est à la fois surmédiatisée et là pour rester, mais la réémergence du paradigme Software 1.0 dans les applications Software 3.0 est à la fois une énorme opportunité et une zone de confusion, créant un espace blanc pour de nombreuses startups.
Bien sûr, ce n'est pas seulement du code écrit par des humains. Les histoires de nombreux projets (smol-developer, plus largement gpt-engineer, et les aventures d'autres agents générateurs de code comme Codium AI, Codegen.ai, et Morph/Rift) laissent à penser qu'ils feront de plus en plus partie de l'IA boîte à outils de l'ingénieur. À mesure que les ingénieurs humains apprendront à exploiter l'IA, l'IA sera de plus en plus impliquée dans l'ingénierie.
Jusqu'à ce qu'un jour, dans un avenir lointain, nous levions les yeux et ne soyons plus en mesure de faire la différence entre les deux.
Les références