Un expert en cybersécurité avertit que la fièvre autour de ChatGPT est une bulle insoutenable.
Alors que les dirigeants du secteur défendent une croissance soutenue, les analystes rappellent des cas historiques de surévaluation et suggèrent une prudence face à la vitesse et au volume des investissements actuels.
L'enthousiasme mondial pour l'intelligence artificielle et des outils comme ChatGPT a stimulé des investissements de plusieurs millions dans le secteur technologique.
Cependant, des voix critiques avertissent que cette expansion pourrait être en train de gonfler une bulle difficile à maintenir.
Shlomo Kramer, cofondateur de la société de cybersécurité Cato Networks, a affirmé que l'ampleur des investissements dans l'IA n'est pas justifiée par les résultats actuels et que, tôt ou tard, de nombreuses entreprises pourraient faire face à des conséquences graves si la réalité ne correspond pas aux attentes générées.
La croissance de l'intelligence artificielle a été si rapide que de nombreuses entreprises ont misé leur avenir sur l'automatisation et le traitement de données à grande échelle.
ChatGPT et d'autres modèles génératifs ont renforcé la perception selon laquelle l'IA sera le moteur dominant de l'économie et de l'innovation au cours des prochaines années.
Mais, selon Kramer, il existe une rupture entre la promesse et les bénéfices réels obtenus jusqu'à présent.
Pourquoi les experts avertissent-ils d'une bulle dans l'IA
Kramer n'a pas hésité à qualifier ce phénomène de « bulle de manuel ».
Dans des déclarations à Business Insider, il a souligné que les investissements dans l'intelligence artificielle sont surévalués et que la technologie ne progresse pas à la même vitesse que le capital affecté à son développement.
OpenAI offre 550 000 USD de salaire pour recruter un expert qui les prépare aux dangers de l'IA
La compagnie américaine intensifie le développement de mécanismes avancés pour assurer la protection et la confiance des utilisateurs dans l'écosystème numérique
OpenAI a publié une offre d'emploi pour un poste de haut niveau visant à anticiper et atténuer les dangers de l'intelligence artificielle, avec une rémunération annuelle de 555 000 USD plus des actions.
Le poste cherche à intégrer un responsable de la préparation qui assumera un rôle fondamental dans l'identification et la réponse aux risques associés à la santé mentale des utilisateurs et à la sécurité cybersécuritaire, ce qui reflète l'augmentation des défis liés au déploiement massif de modèles d'IA.
Le poste exige de prendre des décisions cruciales dès le moment de l'intégration. Dans une publication sur X, Sam Altman, directeur exécutif d'OpenAI, a souligné le niveau d'exigence du poste : “Ce sera un travail de haute pression et où des responsabilités critiques seront rencontrées dès le début”.
Le profil requis doit apporter des approches efficaces pour développer des solutions permettant aux défenseurs de la cybersécurité de tirer parti de capacités de pointe, tout en bloquant leur utilisation abusive par des acteurs malveillants. On souligne également l'urgence d'assurer des stratégies sûres pour la libération de capacités biologiques et pour maintenir l'intégrité de systèmes capables de s'auto-améliorer.
Cette décision répond à l'inquiétude croissante dans l'industrie technologique concernant les risques réputationnels et opérationnels dérivés de l'avancement de l'intelligence artificielle.
Un rapport publié en novembre par un cabinet de conseil en analyse financière a indiqué que, au cours des onze premiers mois de l'année dernière, au moins 418 entreprises évaluées à plus de 1 000 000 000 USD ont mentionné des risques liés à l'IA dans leurs rapports auprès de la Commission des valeurs mobilières des États-Unis.
L'IA apporte plus de tension : les employés veulent travailler moins parce que l'IA aide. Les PDG exigent que les gens soient des machines sans repos.
Sous le prétexte de la productivité, les PDG exigent de plus en plus d'heures. Pendant ce temps, les gens espèrent que l'IA leur fera gagner des heures dans leurs tâches.
L'équilibre entre la vie professionnelle et personnelle vs les journées 996 que beaucoup d'entreprises d'IA exigent tant aux États-Unis qu'en Europe.
Il existe une distance importante entre ce que les employés ont commencé à apprécier avec le temps et ce que les dirigeants exigent de leurs travailleurs sous la menace qu'une intelligence artificielle puisse leur enlever leur emploi.
Et de nouvelles données mettent cette réalité sur la table. Selon Randstad, 74 % de la génération Z considère que l'équilibre entre la vie professionnelle et personnelle est l'une des principales considérations lors du choix d'un emploi en 2025, le pourcentage le plus élevé de toutes les générations.
Selon Fortune, en 20 ans de préparation de son rapport Workmonitor, c'est la première fois que l'équilibre entre la vie professionnelle et personnelle dépasse le salaire en tant que facteur principal pour tous les travailleurs.
Chez Genbeta, nous avons déjà recueilli d'autres rapports qui montrent des tendances similaires.
Le cabinet Deloitte affirmait dans un rapport de 2023 que la jeunesse "a une perspective totalement unique des carrières professionnelles et de la façon de définir le succès dans la vie et dans le monde du travail" par rapport aux aînés.
Et le rapport affirmait que "ses priorités sont de trouver un équilibre entre la vie professionnelle et personnelle mais aussi que son travail ait un sens et lui permette d'apprendre et d'acquérir de nouvelles compétences".
Les ambitions des travailleurs... et l'IA. Mais... tout cela entre en conflit avec une autre réalité.
À mesure que l'IA a remodelé les structures d'entreprise, de nombreux cadres affirment qu'ils travaillent plus dur que jamais et s'attendent à ce que tous les autres suivent leur exemple.
Sam Altman (40), créateur de ChatGPT, expert en intelligence artificielle : “Il y aura des moments vraiment terrifiants.
J'espère que certaines choses mauvaises se produiront à cause de la technologie”
Le PDG d'OpenAI a tendance à être optimiste en ce qui concerne l'intelligence artificielle, bien qu'il soit conscient du risque que présente le développement de la technologie.
Parler de Sam Altman, PDG d'OpenAI, c'est probablement parler du gourou technologique du moment.
On dit souvent que celui qui frappe le premier frappe deux fois, et c'est exactement ce que nous pouvons appliquer dans ce cas, car avec le lancement de ChatGPT le 30 novembre 2022, l'expert a devancé tout le monde et est devenu sans le vouloir la référence.
La création d'Altman a tracé le chemin à suivre pour les autres et s'il s'agit de chatbots ou de grands modèles de langage (LLM, pour son acronyme en anglais), son hégémonie est indéniable.
Cela ne veut pas dire qu'il soit strictement le meilleur ou qu'il n'y ait pas de bonnes alternatives aujourd'hui, mais il a réussi à s'installer dans la mémoire collective comme le pionnier et c'est un énorme avantage compétitif.
Et ce fait, en supplément, a également propulsé son principal instigateur.
Sam Altman n'a pas le curriculum vitae des grands comme Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Stuart Russell ou Ray Kurzweil, pour en nommer quelques-uns, mais cependant son opinion est souvent l'une des plus influentes et celle qui touche le plus profondément l'opinion publique car il est le visage amical de l'intelligence artificielle.
Les pires craintes de Sam Altman Quand il apparaît dans un podcast ou dans une émission de télévision ces derniers temps, une constante de plus en plus fréquente, il montre souvent une confiance relativement aveugle dans le développement de la technologie et dans ses énormes possibilités. Il manifeste un énorme enthousiasme pour l'avenir qui nous attend.
Et c'est normal parce qu'au final, il doit aussi vendre les qualités de son produit, mais si nous lisons entre les lignes, il y a aussi de la place pour un homme tourmenté qui a allumé un interrupteur que nous ne savons pas si nous pourrons éteindre venu le moment.
Tu as perdu ton investissement, mon ami. Ne perds pas 25$ . C'est un mode d'escroquerie où l'on te demande de l'argent pour pouvoir recevoir les gains exagérés qui t'ont été offerts.
Sam Altman, créateur de ChatGPT et PDG d'OpenAI : “L'intelligence artificielle représente un changement radical dans le champ des possibles”
L'expert en technologie a annoncé une nouvelle avancée qui incorpore l'IA et pourrait révolutionner notre façon de travailler et de vivre. L'intelligence artificielle dans le quotidien n'est pas une réalité très lointaine.
Il y a déjà ceux qui recourent à ChatGPT ou utilisent des assistants virtuels similaires pour planifier des projets et organiser des tâches.
C'est la main droite de beaucoup et, bien qu'elle ait des limitations, elle devient de plus en plus avancée.
Les experts en cette technologie travaillent à augmenter ses capacités et à offrir un produit qui améliore nos vies. Sam Altman, créateur de ChatGPT et PDG d'OpenAI, a annoncé quel est son prochain lancement.
Peut-être que l'intelligence artificielle est à son point le plus élevé, mais nous ne pouvons pas le savoir avec certitude car la technologie avance à grande vitesse.
Certains experts prévoient que, dans 10 ans, l'IA révolutionnera le secteur du travail tel que nous le connaissons.
D'autres estiment qu'elle jouera un rôle beaucoup plus important capable de remplacer des centaines de tâches humaines.
En attendant l'arrivée de ce scénario, les experts travaillent sur de nouveaux dispositifs.
Wall Street retira USD 900 millions de bitcoin, accélérant le déclin
Les ETF de bitcoin au comptant ont connu la deuxième plus grande sortie quotidienne de capitaux de leur histoire.
Les fonds négociés en bourse (ETF) de bitcoin (BTC) au comptant qui opèrent sur Wall Street ont enregistré une sortie de capitaux de 900 millions de dollars lors de la journée d'hier, le 20 novembre.
Ce mouvement massif d'investisseurs constitue la deuxième plus grande sortie quotidienne de capitaux depuis le lancement de ces produits d'investissement en janvier 2024, exerçant une pression baissière significative sur le bitcoin.
L'exode de capitaux a été dirigé par le fonds iShares Bitcoin Trust (IBIT), géré par BlackRock, avec des rachats atteignant 355 millions de dollars.
Il a été suivi par le Grayscale Bitcoin Trust (GBTC), qui a rapporté des sorties de 199 millions de dollars.
D'autres fonds qui ont contribué au retrait de capitaux étaient gérés par des entreprises telles que Fidelity, VanEck, Bitwise et Ark Invest.
Dans le graphique ci-dessous, on observe comment ont été les flux de capitaux depuis ou vers les ETF de BTC.
Le fonctionnement des ETF au comptant implique que les gestionnaires achètent et conservent du bitcoin pour soutenir les actions qu'ils émettent.
Par conséquent, lorsque les investisseurs retirent leur capital, les gestionnaires sont contraints de vendre une partie de leurs avoirs de la monnaie numérique pour couvrir ces rachats.
Cette augmentation de l'offre de bitcoin sur le marché, sans la demande suffisante pour l'absorber, agit comme un facteur direct de pression à la baisse sur son prix.
Sam Altman, responsable principal de ChatGPT, partage son "meilleur conseil professionnel accidentel"
Le meilleur moment pour se consacrer à l'informatique est maintenant.
C'est du moins ce que pense le directeur général d'OpenAI et responsable principal de ChatGPT, Sam Altman.
"Quel moment si intéressant et prometteur", commentait Altman dans une interview avec Dan Boneh, professeur à l'Université de Stanford (aux États-Unis), publiée ce mercredi. "Évidemment, je me concentrerais sur l'IA".
Le PDG de l'une des entreprises d'intelligence artificielle les plus avancées d'aujourd'hui a défendu que l'IA n'est pas seulement le domaine professionnel le plus brûlant en ce moment, mais qu'il s'agit de la technologie qui va définir cette génération.
"Cela pourrait être la plus importante sur une période de temps beaucoup plus longue", a ajouté Altman.
Cet entrepreneur a exprimé ouvertement sa conviction que l'intelligence artificielle transformera presque tous les aspects du travail et de la société.
Le directeur général d'OpenAI défendait la semaine dernière dans le dernier épisode du podcast Conversations with Tyler qu'il serait gêné si sa société n'était pas la première grande organisation dirigée par un "PDG d'IA".
L'intelligence artificielle générale (AGI, pour ses sigles en anglais), cette technologie qui serait capable de raisonner de façon égale ou supérieure à un être humain, a été l'objectif principal du développeur de ChatGPT depuis ses premiers jours en tant que laboratoire de recherche.
Lors d'une retransmission en direct qui a eu lieu en octobre, Altman a déclaré que le but d'OpenAI est "d'avoir un véritable chercheur d'IA automatisé pour mars 2028".
Lors de sa récente interview avec Boneh, l'entrepreneur a également partagé ce qu'il appelle son "meilleur conseil professionnel accidentel".
Sam Altman, PDG d'OpenAI, a été interrompu et cité à comparaître lors d'un événement.
La citation a été présentée au nom de Stop AI, un collectif qui organise des manifestations contre OpenAI et qui a à plusieurs reprises bloqué les accès au siège de l'entreprise dans la ville.
Sam Altman, directeur exécutif d'OpenAI et l'une des figures les plus influentes dans l'avancement de l'intelligence artificielle, a été surpris lundi lorsqu'un homme est monté sur scène lors d'un événement public et lui a remis une citation judiciaire, provoquant des huées et des murmures parmi les participants.
Altman participait à une discussion avec l'entraîneur des Golden State Warriors, Steve Kerr, modérée par Manny Yekutiel. Au milieu de la conversation, un individu a fait irruption sur scène pour lui remettre une citation.
Bien que le document n'ait pas été directement remis à Altman, un membre de la sécurité l'a pris et a escorté l'homme hors du lieu, la notification reste valide selon la loi californienne même si la personne citée ne la reçoit pas physiquement.
L'identité de l'homme a été confirmée par la suite : il s'agit d'un employé du Bureau du Défenseur Public de San Francisco.
La citation a été présentée au nom de Stop AI, un collectif qui organise des manifestations contre OpenAI et qui a à plusieurs reprises bloqué les accès au siège de l'entreprise dans la ville. Certains de ses membres ont été arrêtés et attendent leur procès.
Selon la porte-parole du Bureau du Défenseur Public, Valerie Ibarra, il avait été tenté de citer précédemment Altman tant au siège de son entreprise qu'à travers des demandes électroniques, sans succès.
Altman a été appelé à témoigner comme possible témoin dans le procès pénal où les activistes sont accusés d'obstruction lors de leurs manifestations.
Dans une déclaration publiée sur X, le groupe Stop AI a affirmé que son objectif est d'attirer l'attention sur ce qu'il considère comme une menace existentielle : le développement de systèmes d'intelligence artificielle plus avancés que l'être humain.
L'investissement, cette quote-part initiale chargée de rêves et d'espoirs d'un avenir résolu, où son résultat est l'épitome de la largesse et de la tranquillité.
Alors que les pertes et la faible rentabilité sont l'adeptique qui transforme l'investissement en une transaction marginale.
Il est nécessaire d'appliquer le risque-bénéfice pour pouvoir déterminer si un investissement est soutenu par un bon jugement et la raison pour atteindre le véritable succès.
Sam Altman, créateur de ChatGPT, expert en intelligence artificielle : “Je ne dors pas bien la nuit. Je n'ai pas bien dormi une seule nuit depuis le lancement de ChatGPT”
Le PDG d'OpenAI assure que les responsabilités liées à son travail avec ChatGPT et les décisions qu'il doit prendre sont un fardeau difficile à gérer, surtout lorsque des questions morales sont également abordées.
Beaucoup de choses ont été dites et écrites ces derniers temps sur l'intelligence artificielle et ses différentes implications au niveau géopolitique, social, sanitaire, économique ou professionnel.
On a même spéculé sur des termes comme la singularité, le point théorique où la machine surpassera l'homme en intelligence, ou le transhumanisme, qui fantasme sur l'amélioration des capacités humaines sous la protection de la technologie en vue de l'immortalité.
Cependant, on ne parle pas autant du débat sur la moralité et sur quels sont les principes éthiques sur lesquels l'intelligence artificielle se base lorsque quelqu'un comme toi ou moi lui pose une question.
Comment le modèle linguistique devrait-il se comporter ? Que devrait-il faire ? Comment refuser quelque chose ? Comment est-il censé répondre ?
Le poids de prendre des décisions qui influencent des millions de personnes
Évidemment, personne de mieux que Sam Altman, créateur de ChatGPT, pour répondre à la question de savoir comment se comporte sa créature et quels sont les limites qui ont été tracées ou les défis auxquels elle est confrontée, qui ne sont pas nombreux.
"C'est une question difficile car il y a beaucoup de personnes avec différentes perspectives de vie, mais en général, j'ai été surpris par la capacité générale du modèle à apprendre et à appliquer un cadre moral", assure-t-il dans une interview sur The Tucker Carlson Show.
Des experts contredisent Bill Gates : l'intelligence artificielle augmentera la charge de travail au lieu de la réduire Bill Gates envisage des semaines de travail plus courtes grâce à l'IA, mais des experts mettent en garde contre un scénario opposé
Au cours des dernières années, plusieurs figures influentes du monde technologique, comme Bill Gates, Sam Altman ou Elon Musk, ont convenu que l'intelligence artificielle transformera la manière dont les gens travaillent.
Gates, en particulier, a souligné que l'automatisation permettra de réduire les journées de travail et que les gens pourront consacrer plus de temps à leurs intérêts personnels ou créatifs.
Cependant, un groupe croissant d'experts ne partage pas cet optimisme.
Selon ces spécialistes, l'histoire récente démontre que l'introduction de nouvelles technologies ne se traduit pas toujours par moins de travail, mais plutôt par une augmentation de la charge de travail et une plus grande difficulté à se déconnecter.
Au lieu de libérer du temps, l'IA pourrait élever les attentes de productivité et élargir les frontières entre le travail et la vie personnelle.
Les experts soutiennent que l'intelligence artificielle pourrait répéter le même schéma que celui observé avec l'arrivée d'Internet, des smartphones ou du courrier électronique : des outils créés pour faciliter la vie professionnelle, mais qui ont fini par générer de nouvelles obligations et à étendre les horaires de travail au-delà des limites traditionnelles.
Le mythe des journées réduites
Bill Gates a imaginé un avenir où les gens ne travailleront que trois jours par semaine, comptant sur le fait que l'IA assumera les tâches les plus répétitives ou administratives.
Néanmoins, les chercheurs qui étudient l'évolution de l'emploi et de la technologie affirment que ce scénario est peu probable.
Selon leur analyse, l'introduction de systèmes d'automatisation s'accompagne souvent d'une augmentation des attentes de performance.
Adieu aux 'influenceurs' : Sam Altman, créateur de ChatGPT, pense qu'ils pourraient disparaître si l'IA est bonne pour créer du contenu.
Peu importe ce que beaucoup peuvent penser : Sam Altman, PDG d'OpenAI, dit qu'il pense que ChatGPT est en passe d'avoir plus de conversations par jour que tous les êtres humains réunis.
ChatGPT est sorti en novembre 2022, et est rapidement devenu le produit technologique à la croissance la plus rapide de l'histoire.
Maintenant, Sam Altman est pleinement engagé dans le projet Sora, sa nouvelle application de vidéos courtes avec IA qui promet de révolutionner le monde audiovisuel de l'univers 3.0.
Un outil qui vous permet de donner libre cours à votre imagination, avec n'importe quel personnage dans des scénarios de toutes sortes ; mais aussi pour affecter un collectif : les créateurs de contenu humains.
Les innovations de l'application sont notables, mais aussi ses possibilités infinies, qui mettent à mal les influenceurs et youtubeurs actuels.
C'est ainsi que l'a clairement fait comprendre Altman lui-même lors d'une interview avec Bill Peebles, responsable du projet Sora, déclarant que "les gens se moquent de savoir si le contenu est généré par un humain ou par une intelligence artificielle", tant qu'il est original et de qualité.
Selon le directeur d'OpenAI, ce que recherchent vraiment les spectateurs, c'est un "contenu bon, original, réfléchi, nouveau et utile", peu importe son origine.
Lors de son intervention dans le programme numérique TBPN, Altman a expliqué que l'avenir de la communication visuelle passera par la collaboration entre humains et technologie, inévitablement. $BTC
L'information, cette lumière sans laquelle la sagesse ne peut voir, mais aussi l'ombre qui, dans son excès, nous aveugle et nous empêche de trouver la véritable connaissance.
Elle se présente comme un prérequis indispensable pour atteindre la sagesse, comme la lumière l'est pour la vue ; tout comme une ombre dense, la surabondance de données sans contexte ou signification peut être préjudiciable, nous accablant et rendant la compréhension profonde difficile.
Elle reflète l'idée que disposer de nombreuses données ne signifie pas avoir de la compréhension, et encore moins de la sagesse ; le défi est de discerner et d'organiser l'information pour qu'elle devienne un savoir significatif.
Il se peut que nous ayons une bulle de l'IA, mais c'est une "bonne bulle", défendent des investisseurs et, bien sûr, des fondateurs de startups
La logique nous dit que les entreprises qui perdent de l'argent de manière constante devraient avoir un avenir sombre.
Ce qui se passe dans le monde de l'IA est tout le contraire, et en ce moment dix startups dans des chiffres très rouges ont réussi en un an quelque chose d'insolite : en un an, elles ont augmenté d'un billion de dollars dans leur évaluation conjointe. C'est tout simplement extraordinaire... et inquiétant.
Les trois grandes. OpenAI est sans aucun doute la protagoniste de ce groupe sélect, et aujourd'hui on estime que son évaluation s'élève à un demi-billion de dollars.
L'entreprise d'Elon Musk, xAI, est évaluée à 200.000 millions, tandis qu'Anthropic se rapproche également de ce chiffre selon une étude du Financial Times.
Et ses immédiates suiveuses. Databricks, qui a été fondée en 2013, a été rapide à rejoindre ce segment et a maintenant une évaluation estimée à 100.000 millions de dollars. Figure (robotique), SSI (la startup de Sutskever), Scale AI, Perplexity, Thinking Machine Lab (la startup de Mira Murati) ou Cursor complètent cet ensemble de startups de nouvelle génération (presque toutes) et avec des évaluations en flèche.
Fièvre d'investissement.
Cette croissance de leur évaluation est due, comment ne pas le dire, au fait que toutes ces entreprises ont levé des tours de financement multimillionnaires de la part de sociétés qui croient en un avenir plein d'IA.
En fait, les entreprises de capital-risque et d'investissement aux États-Unis ont injecté 161.000 millions de dollars tout au long de cette année, et elles l'ont fait sans même pouvoir voir un début de preuve que leur pari sera gagnant.
Toutes ces entreprises d'IA brûlent de l'argent comme s'il n'y avait pas de lendemain, et leur rentabilité et leur avenir sont une absolue incertitude.
Les bulles sont bonnes. "Bien sûr qu'il y a une bulle [de l'IA]". Celui qui le dit est Hermant Taneja, président de la société de capital-risque General Catalyst.
Les nouveaux accords sur les puces d'OpenAI soulèvent une question difficile : d'où viendra toute l'énergie ?
Le fabricant de ChatGPT a signé un accord de collaboration multimillionnaire avec AMD pour mettre en œuvre 6 gigawatts de puces d'intelligence artificielle de l'entreprise de semi-conducteurs.
La semaine dernière, OpenAI et le concepteur de puces Nvidia ont annoncé un accord pour 10 gigawatts de puissance de calcul.
OpenAI a déclaré qu'il avait désespérément besoin d'accéder à plus de puissance de calcul pour réaliser sa stratégie de croissance ambitieuse, mais ses récents accords sur les puces ont généré une autre nécessité cruciale : plus d'énergie.
Aux États-Unis, la course à l'IA a tendu le réseau électrique jusqu'à presque le point de rupture.
Les entreprises de services publics rapportent qu'il faudra environ 60 gigawatts de nouvelle énergie, l'équivalent de la consommation de six grandes villes, d'ici la fin de la décennie.
Les entreprises électriques peuvent prendre des années pour planifier et réaliser les audiences réglementaires nécessaires pour mettre en place de nouvelles infrastructures.
Avec le rythme rapide des annonces de nouvelles puces, les experts affirment qu'il est de plus en plus nécessaire que les centres de données se passent des entreprises de services publics et commencent à fournir leur propre énergie.
"Le secteur en général sait depuis des années que nous atteignons la limite de la capacité du réseau", souligne Sean Farney, vice-président de la stratégie des centres de données pour l'Amérique de Jones Lang Lasalle.
"Pour gagner dans ce jeu, ils doivent être innovants et lancer ces solutions d'autogénération".
OpenAI fournit déjà de l'énergie à son centre de données d'Abilene (Texas), qui fait partie du projet Stargate, via une centrale au gaz naturel située sur les lieux.
Elon Musk fournit de l'énergie à un centre de données de xAI à Memphis avec des turbines mobiles au gaz naturel et a acheté les installations d'une ancienne centrale à gaz dans le Mississippi.
Sam Altman (40), créateur de ChatGPT, sur l'avenir de l'intelligence artificielle : "L'éducation de nos enfants sera très différente, l'université ne sera pas une option pour beaucoup de gens"
Dans les derniers temps, il est évident que l'intelligence artificielle est devenue un sujet de débat récurrent.
L'inquiétude sur la façon dont cela affectera nos vies, maintenant qu'elle commence à être une ‘menace’ réelle, fait que tout le monde essaie d'anticiper ses conséquences possibles et de spéculer sur la manière dont cette technologie va façonner notre environnement dans les prochaines années.
Son implémentation, la gestion éthique des données et la vie privée, la transparence et le biais algorithmique, la cybersécurité, l'impact sur le marché du travail, la nécessité de talents qualifiés, la législation, le manque d'infrastructure ou le contrôle même des capacités de l'intelligence artificielle par l'homme sont des questions qui préoccupent énormément.
L'éducation à l'ère de l'intelligence artificielle
Cependant, malgré l'importance de tous ces sujets, il n'est pas moins vrai que nous devrions également nous préoccuper de ceux qui hériteront de cette technologie dans son plein éclat.
Que se passe-t-il avec les nouvelles générations ? Les enfants sont-ils préparés à chevaucher l'IA ? Comment cela les affectera-t-il ?
"Je ne m'inquiète pas pour les enfants, je m'inquiète pour les parents". Ainsi, avec cette franchise, Sam Altman, créateur de ChatGPT et PDG d'OpenAI, se montre dans This past weekend, le podcast animé par Theo Von.
"Si vous regardez l'histoire du monde, lorsque surgit une nouvelle technologie, les gens qui grandissent avec elle savent toujours quoi faire et comment s'adapter.
Mais si vous avez 50 ans, apprendre à faire les choses d'une manière très différente de celle à laquelle vous êtes habitué ne fonctionne pas toujours".
Et, comme exemple, il partage deux exemples révélateurs qui résument l'importance d'être un natif numérique pour faire face aux changements technologiques.
"Notre génération n'a pas grandi sans ordinateurs. Il se peut que pour nous, ce fut quelque chose de nouveau à un moment donné, mais ils ont toujours été là"
Sam Altman, PDG de ChatGPT, confirme ce que tout le monde craint avec Sora 2 : 'Nous allons examiner les créateurs de propriété intellectuelle'
Jusqu'à présent, le modèle de génération de vidéo d'OpenAI fonctionnait avec une politique d'exclusion volontaire, un système qui différait du cadre légal des droits d'auteur.
Depuis les premières mésaventures des générateurs de vidéo avec l'IA, les préoccupations concernant les droits d'auteur n'ont pas tardé à surgir.
L'idée de pouvoir mettre Pikachu ou Darth Vader dans n'importe quelle scène avec juste un prompt posait un risque légal immédiat pour les créateurs du modèle.
Aujourd'hui, avec des outils plus sophistiqués comme Sora 2, le dilemme persiste : des personnages qui n'appartiennent pas à OpenAI continuent d'être représentés librement selon l'indication de l'utilisateur.
La semaine dernière, Sam Altman, PDG d'OpenAI, a présenté une approche d'exclusion volontaire dans Sora 2.
Cela permet aux titulaires de droits de décider si leur contenu peut être utilisé dans la génération de vidéo. Comme le signalait The Hollywood Reporter, ce n'est pas la dynamique habituelle de la loi sur la propriété intellectuelle.
Jusqu'à présent, Sora 2 protégeait la propriété intellectuelle occidentale, mais pas la japonaise : des franchises comme Pokémon ou Dragon Ball étaient des territoires libres.
Avec la mise à jour, Altman a confirmé dans un blog que cette politique évolue vers un système optionnel, offrant aux créateurs un "contrôle plus granulaire" sur leurs personnages.
"Nous avons reçu des commentaires de nombreux titulaires de droits très intéressés par ce nouveau type de ‘fiction interactive de fans’.
Ils sont attirés par l'idée de la participation qui génère de la valeur, mais ils souhaitent pouvoir décider comment leurs personnages sont utilisés, y compris en interdisant complètement leur usage", a écrit Altman.
Derrière ces ajustements se cache également une question économique : générer des vidéos avec Sora 2 consomme beaucoup d'énergie, quelque chose qui a toujours été au cœur du débat sur l'intelligence artificielle, et l'intention est de partager les revenus avec les titulaires de droits de propriété intellectuelle qui le permettent, créant un modèle qui, selon Altman, bénéficie à toutes les parties.
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos