Les promesses de l'intelligence artificielle
+5
mirage
Nailsmith
Jipé
Bulle
Bean
9 participants
Page 2 sur 2
Page 2 sur 2 • 1, 2
Re: Les promesses de l'intelligence artificielle
Bean a écrit:C'était vrai aussi, au début de l'ère informatique quand des super-calculateurs immenses ne faisaient pas mieux que nos calculettes
C'est plus ou moins vrai mais c'est en grande partie de la croyance populaire.
Un supercalculateur est un modèle unique utilisé dans des secteurs bien spécifiques : climat-météorologie (prévisions), simulations nucléaires, aérodynamique, physique des fluides, modélisations en temps réel de la chimie-physique des matériaux, etc.. Nos calculettes actuelles n'en sont pas au millième de la puissance des supercalculateurs des 70's. Faut pas rêver.
Bien sûr, les processeurs sont plus puissants que ceux de ces époques, mais ces superalculateurs peuvent en posséder 300 000 s'il le faut, si la spécialité l'exige. De plus, la puissance d'un calculateur ne dépend pas que du processeur, il faut aussi un max d'espace-mémoire pour libérer cette puissance de calcul, par exemple pour exécuter des millions ou milliards d'opérations calculatoires complexes.
seuls les spécialistes y comprenaient quelque chose puis l'ordinateur est devenu plus petit, il est passé de la taille d'un immeuble à la taille d'un PC puis d'un smartphone et s'est finalement démocratisé.
Les applications de la technologie domestique répondent à des besoins domestiques qui ne nécessitent pas du tout la même puissance de calcul que certaines spécialités.
- Quelqu'un qui fait du graphisme en tant qu'amateur éclairé se contentera d'une station à 1000 euros, assez puissante, et aura de bons résultats. Mais un pro exigera un station évolutive AlienWare à 25000 euros, beaucoup plus puissante, parce que c'est un spécialiste et qu'il veut un résultat complet et parfait. S'il fait de la 3D, il n'a pas envie d'attendre toute une nuit pour voir les résultats en haute-définition. Donc il lui faut une station spécialisée dont la technologie est plus avancée que elle d'une station standard.
Dans ces milieux, c'est le besoin qui crée l'organe.
L'ordinateur quantique, s'il voit le jour et tient ses promesses en fera autant car nul besoin d'en comprendre les principes pour le commun des mortels, il faut seulement savoir s'en servir et les interfaces hommes machines qui permettront de s'en servir sont des questions de programmations dont l'utilisateur se sert sans avoir conscience de leur complexité.
Il ne s'agit pas de principe. Je pense que les applications standard, telles que les traitements de textes, tableurs, la plupart des applications graphiques ou audio, ne seront plus des logiciels mais deviendront des services du réseau, car c'est du standard. Mais il existera aussi des applications spécialisées qui nécessitent un processeur quantique et un spécialiste pour les utiliser. D'ailleurs il n'y a pas besoin de processeur quantique : Si on se sert d'une application en physique des matériaux, il vaut mieux être physicien, même avec un processeur standard. Le logiciel ne peut pas simplifier au-delà d'une certaine limite.
Quant aux traitements de textes, tableurs, etc, ils ne nécessitent pas de processeur quantique. A voir comment donc cette technologie va se démocratiser.
dedale- Seigneur de la Métaphysique
- Nombre de messages : 5840
Age : 63
Localisation : SO France
Identité métaphysique : Indiscernable
Humeur : Fluctuante
Date d'inscription : 14/11/2013
Re: Les promesses de l'intelligence artificielle
Je parlais du début de l'informatique avant les transistors dans les années 60.Nos calculettes actuelles n'en sont pas au millième de la puissance des supercalculateurs des 70's. Faut pas rêver.
On était contents de pouvoir faire les 4 opérations avec. Un peu comme les ordinateurs quantiques des années 2000.
Les mémoires à tores de ferrite étaient particulièrement volumineuses et remplissaient des salles entières.De plus, la puissance d'un calculateur ne dépend pas que du processeur, il faut aussi un max d'espace-mémoire pour libérer cette puissance de calcul, par exemple pour exécuter des millions ou milliards d'opérations calculatoires complexes.
Ces besoins de spécialistes vs généralistes ont toujours existé, c'est une question de moyen quand la technologie est au rendez-vous, puis la technologie se démocratise inévitablement à mesure des progrès des performances. L'ordinateur de 2500€ devient disponible à 1000 €, c'est une question de temps, les spécialistes s'en servent avant tout un chacun, avec 2 ou 3 ans d'avance.Les applications de la technologie domestique répondent à des besoins domestiques qui ne nécessitent pas du tout la même puissance de calcul que certaines spécialités.
Le réseau a aussi ses limites, fiabilité, sécurité, et il y aura toujours besoin de logiciels locaux mais la question des traitements de texte et autres logiciels bureautiques ne sont concernés que pour des applications hight tech, de type interface en langage naturel ou traducteur contextuel mais pour le reste, ils sont déjà performants.... ne seront plus des logiciels mais deviendront des services du réseau, car c'est du standard.
Il semble que ATOS s'oriente vers une informatique hybride classique/quantique. Ce qui permettrait de répondre à des besoins pointus de sécurité (comme la chrypto-analyse) et de réaliser des taches plus standards.
Bean- Seigneur de la Métaphysique
- Nombre de messages : 6964
Localisation : Bretagne
Identité métaphysique : Farceur
Humeur : Joyeux
Date d'inscription : 16/04/2012
Re: Les promesses de l'intelligence artificielle
LA question serait aussi: quels moyens sont ou seront mis en œuvre pour CE projet en particulier ?
car entre un PC de Gamer a 2000 euros et un supercalculateur météorologique, le ratio de différence de puissance est de combien ? 1/100 000 ? plus ?
Ça me rappelle une histoire: quand j'étais gosse, je discutais avec un légionnaire (administratif) qui travaillait donc pour la légion dans le domaine de l'informatique. A l'époque, je me souviens pas exactement de la quantité de ram présente dans les PCs grand public, mais ce devait être aux alentours de 8 Mo.
Eh bien lui me disait qu'il travaillait avec un ordinateur possédant 1Go de mémoire vive ! c'était inconcevable pour moi à l'époque de penser qu'il existait un ordinateur avec une telle capacité !
Et c'était pas "le supercalculateur secret de l'armée de terre", juste un PC de travail pour l'administration de la Légion...il y a plus de 25 ans.
Alors imaginez aujourd'hui, la puissance que l'on pourrait atteindre si l'on décidait de mettre en œuvre tous les moyens pour développer et faire tourner une IA calquée sur le modèle du cerveau humain, là, à l'instant T. C'est comme la conquête de l’espace: en 5 ans (voir moins) on pourrait marcher sur mars tranquille si tous les moyens étaient mis en œuvre pour.
C'est donc aussi et surtout une question de ressources mobilisées.
car entre un PC de Gamer a 2000 euros et un supercalculateur météorologique, le ratio de différence de puissance est de combien ? 1/100 000 ? plus ?
Ça me rappelle une histoire: quand j'étais gosse, je discutais avec un légionnaire (administratif) qui travaillait donc pour la légion dans le domaine de l'informatique. A l'époque, je me souviens pas exactement de la quantité de ram présente dans les PCs grand public, mais ce devait être aux alentours de 8 Mo.
Eh bien lui me disait qu'il travaillait avec un ordinateur possédant 1Go de mémoire vive ! c'était inconcevable pour moi à l'époque de penser qu'il existait un ordinateur avec une telle capacité !
Et c'était pas "le supercalculateur secret de l'armée de terre", juste un PC de travail pour l'administration de la Légion...il y a plus de 25 ans.
Alors imaginez aujourd'hui, la puissance que l'on pourrait atteindre si l'on décidait de mettre en œuvre tous les moyens pour développer et faire tourner une IA calquée sur le modèle du cerveau humain, là, à l'instant T. C'est comme la conquête de l’espace: en 5 ans (voir moins) on pourrait marcher sur mars tranquille si tous les moyens étaient mis en œuvre pour.
C'est donc aussi et surtout une question de ressources mobilisées.
mirage- Seigneur de la Métaphysique
- Nombre de messages : 6913
Localisation : Par GPS c'est pratique
Identité métaphysique : Sceptique
Humeur : Egale
Date d'inscription : 18/04/2013
Re: Les promesses de l'intelligence artificielle
Probable que les plus gros calculateurs sont au service de la NSA et du Pentagone mais il y a de toutes façons des limites technologiques ne serait-ce en quantité d'énergie disponible, on peut concevoir que les militaires utilisent de l'informatique 1000 à 1000000 de fois plus puissant que nous mais il s'agit aussi de composants militaires (qui résistent mieux mais consomment plus).
Bean- Seigneur de la Métaphysique
- Nombre de messages : 6964
Localisation : Bretagne
Identité métaphysique : Farceur
Humeur : Joyeux
Date d'inscription : 16/04/2012
Re: Les promesses de l'intelligence artificielle
Je comprends pas trop cette barrière de "quantité d’énergie disponible"
mirage- Seigneur de la Métaphysique
- Nombre de messages : 6913
Localisation : Par GPS c'est pratique
Identité métaphysique : Sceptique
Humeur : Egale
Date d'inscription : 18/04/2013
Re: Les promesses de l'intelligence artificielle
Bean a écrit:Il semble que ATOS s'oriente vers une informatique hybride classique/quantique. Ce qui permettrait de répondre à des besoins pointus de sécurité (comme la chrypto-analyse) et de réaliser des taches plus standards.
Je n'y ai pas pensé dans ce que je te disais mais oui : Les systèmes hybrides.
Le réseau a aussi ses limites, fiabilité, sécurité, et il y aura toujours besoin de logiciels locaux
Le logiciel est toujours plus ou moins "local", on l'installe dans l'ordinateur. Dans certains systèmes, il peut être même intégré.
Mais si l'ordinateur est connecté à internet, il n'est pas réellement local. C'est un système ouvert. Et un logiciel en lui-même n'assure pas forcément une imperméabilité au réseau.
En ce qui concerne la sécurité, c'est question assez vaste. Il y a plusieurs aspects : Celui de la technologie mais aussi celui de la psychologie humaine.
Il faut bien te dire qu'un service-réseau peut être beaucoup plus fiable et sécurisé qu'une application locale. Bien mieux protégé des attaques et permettant de conserver au mieux les fichiers (qui sont automatiquement dupliqués) et consultables depuis n'importe quel poste.
mais la question des traitements de texte et autres logiciels bureautiques ne sont concernés que pour des applications hight tech, de type interface en langage naturel ou traducteur contextuel mais pour le reste, ils sont déjà performants.
Le monde informatique est très particulier : Il est logique, rationnel mais dans le même temps permet tous les fantasmes.
Je veux dire : Si on prend l'exemple du traitement de texte, ce n'est pas l'application qu'il fat regarder : Elle a été conçue en fonction de ce que l'on peut faire de mieux : Edition, mise en page, correction, style... on peut faire tout ce qu'on veut avec du texte.
Ce qu'il faut regarder c'est qui ou quoi, comment est utilisée cette application.
Avec les processeurs quantiques, les I.A, ce ne sont pas les applications qui changent mais le système d'exploitation, l'environnement également et surtout avec l'I.A le rapport homme-machine.
dedale- Seigneur de la Métaphysique
- Nombre de messages : 5840
Age : 63
Localisation : SO France
Identité métaphysique : Indiscernable
Humeur : Fluctuante
Date d'inscription : 14/11/2013
Re: Les promesses de l'intelligence artificielle
L'entreprise en démarrage DataFranca a mis en ligne un lexique gratuit qui offre des traductions françaises des noumbreux termes liés au domaine de l'intelligence artificielle.
Inspiré de Wikipédia, le lexique se construit grâce à la collaboration de chercheurs francophones de partout dans le monde qui sont invités à formuler des suggestions, à alimenter les discussions autour de certains mots et à voter pour les termes qu’ils jugent les plus appropriés.
Les créateurs du site web souhaitent traduire un total de 2000 à 3000 mots.
Selon le chercheur Claude Coulombe, cofondateur de DataFranca, le lexique répond à un besoin important des utilisateurs de l’intelligence artificielle : « Ils ont besoin d'être formés dans leur langue. Les gens ne s'en vantent pas, mais ils ne sont pas tous bilingues et cela représente pour eux un effort supplémentaire. Donc, si l'on veut abaisser les barrières, rendre cela plus accessible, il faut que ce soit dans la langue de Molière. »
L’entreprise compte offrir des services de traduction et de formation dans un an, quand le lexique sera suffisamment étoffé.
La science et la technologie sont trop importantes pour qu'on laisse cela uniquement à la langue anglaise.
Claude Coulombe, cofondateur de DataFranca
Beaucoup d’intérêt chez les gens de l’industrie
Pour Sylvain Carle, associé du fonds d’investissement Real Ventures, le lexique arrive juste au bon moment. « Quand on passe de l'hyperspécialisation à un public plus large, c'est le moment de se poser la question sur des lexiques en français, et je pense qu'on est manifestement à cette étape-là pour l'intelligence artificielle », constate-t-il.
Le son de cloche est le même du côté des universitaires. Hugo Larochelle, responsable de l’équipe Google Brain à Montréal et professeur à l’Université de Sherbrooke, cherchait fréquemment des termes en français lorsqu’il écrivait sa thèse de doctorat ou quand il préparait du matériel pédagogique. « Je crois que cette initiative est un pas dans la bonne direction, affirme-t-il. Le fait d'avoir une communauté qui va tenter d'arriver à un consensus va apporter une valeur ajoutée à ce lexique. »
Inspiré de Wikipédia, le lexique se construit grâce à la collaboration de chercheurs francophones de partout dans le monde qui sont invités à formuler des suggestions, à alimenter les discussions autour de certains mots et à voter pour les termes qu’ils jugent les plus appropriés.
Les créateurs du site web souhaitent traduire un total de 2000 à 3000 mots.
Selon le chercheur Claude Coulombe, cofondateur de DataFranca, le lexique répond à un besoin important des utilisateurs de l’intelligence artificielle : « Ils ont besoin d'être formés dans leur langue. Les gens ne s'en vantent pas, mais ils ne sont pas tous bilingues et cela représente pour eux un effort supplémentaire. Donc, si l'on veut abaisser les barrières, rendre cela plus accessible, il faut que ce soit dans la langue de Molière. »
L’entreprise compte offrir des services de traduction et de formation dans un an, quand le lexique sera suffisamment étoffé.
La science et la technologie sont trop importantes pour qu'on laisse cela uniquement à la langue anglaise.
Claude Coulombe, cofondateur de DataFranca
Beaucoup d’intérêt chez les gens de l’industrie
Pour Sylvain Carle, associé du fonds d’investissement Real Ventures, le lexique arrive juste au bon moment. « Quand on passe de l'hyperspécialisation à un public plus large, c'est le moment de se poser la question sur des lexiques en français, et je pense qu'on est manifestement à cette étape-là pour l'intelligence artificielle », constate-t-il.
Le son de cloche est le même du côté des universitaires. Hugo Larochelle, responsable de l’équipe Google Brain à Montréal et professeur à l’Université de Sherbrooke, cherchait fréquemment des termes en français lorsqu’il écrivait sa thèse de doctorat ou quand il préparait du matériel pédagogique. « Je crois que cette initiative est un pas dans la bonne direction, affirme-t-il. Le fait d'avoir une communauté qui va tenter d'arriver à un consensus va apporter une valeur ajoutée à ce lexique. »
Nailsmith- Maître du Relatif et de l'Absolu
- Nombre de messages : 1675
Localisation : Québec,Canada
Identité métaphysique : Chrétien lucide
Humeur : Égale
Date d'inscription : 06/01/2011
Re: Les promesses de l'intelligence artificielle
Mirage a écrit:car entre un PC de Gamer a 2000 euros et un supercalculateur météorologique, le ratio de différence de puissance est de combien ? 1/100 000 ? plus ?
Ca peut être beaucoup plus. 1/100 millions.
Le GIEC par exemple va bientôt se doter d'un Bull Sequana d'une puissance qui se situe entre 9 et 20 pétaFLOPS avec 400 téraoctets de mémoire. (donc max. 20 milliers de milliards d'opérations/seconde pour la config d'origine).
Le Bull Sequana est loin d'être le plus puissant.
Un processeur standard avec 2 coeurs tournant à 3.5 Ghtz admettons et 4 giga de mémoire, qui équipe un PC, tourne aux alentours de 7 milliards d'opérations/seconde (7 gigaFLOPS)
C'est une base. Mais tous ces équipement, aussi bien le PC que le supercalculateur, peuvent être boostés en reléguant certaines tâches à des processeurs externes et en soulageant le processeur principal. Il y aussi d'autres manières.
Ça me rappelle une histoire: quand j'étais gosse, je discutais avec un légionnaire (administratif) qui travaillait donc pour la légion dans le domaine de l'informatique. A l'époque, je me souviens pas exactement de la quantité de ram présente dans les PCs grand public, mais ce devait être aux alentours de 8 Mo.
Eh bien lui me disait qu'il travaillait avec un ordinateur possédant 1Go de mémoire vive ! c'était inconcevable pour moi à l'époque de penser qu'il existait un ordinateur avec une telle capacité !
Et c'était pas "le supercalculateur secret de l'armée de terre", juste un PC de travail pour l'administration de la Légion...il y a plus de 25 ans.
Dans les années 90, mon équipe avait une Workstation de Silicon Graphic, l'une des premières je crois, qui valait 350 000 francs d'après ce qu'on m'a dit, un bijou de la technologie, très en avance sur les standards.
- Pendant qu'un ordinateur standard réalisait un travail en une nuit, cette station faisait le même en 2mn - un OVNI de l'informatique. En fait elle possédait déjà les mêmes capacités qu'un ordinateur actuel, à peu de choses près. Simplement, plus difficile à utiliser car les systèmes d'exploitation de l'époque étaient moins développés. Le système en question était un Irix.
Entre autre, elle était équipée du même processeur, un Motorola, que certains supercalculateurs américains dont je ne me souviens plus du tout le nom. Et son système de sauvegarde était un DAT qui permettait des Go d'enregistrement (archives et cie). Mais la station était dédiée à l'infographie.
C'était à l'entreprise. Moi je bavais, c'est tout.
dedale- Seigneur de la Métaphysique
- Nombre de messages : 5840
Age : 63
Localisation : SO France
Identité métaphysique : Indiscernable
Humeur : Fluctuante
Date d'inscription : 14/11/2013
Re: Les promesses de l'intelligence artificielle
_________________
Hello Invité ! Le du 01 novembre 2024 est en ligne et accessible directement en cliquant sur "Meta-Quizz" .
Vous pouvez choisir le thème du prochain quizz en cliquant ICI , pour participer au sondage !
Re: Les promesses de l'intelligence artificielle
Quand j'ai commencé dans l'informatique gros systèmes, au début des années 80, on disposait d'un Bull Iris qui occupait une immense salle.
Il me semble me souvenir qu'il ne disposait que de 128 Mo de mémoire vive. Quand aux disques amovibles, bien que très volumineux et très lourds, il avaient une capacité maximale de 100 Mo de données.
Il me semble me souvenir qu'il ne disposait que de 128 Mo de mémoire vive. Quand aux disques amovibles, bien que très volumineux et très lourds, il avaient une capacité maximale de 100 Mo de données.
Moguilev- Affranchi des Paradoxes
- Nombre de messages : 176
Localisation : Nord france
Identité métaphysique : Indifférent
Humeur : En hibernation
Date d'inscription : 26/11/2017
Re: Les promesses de l'intelligence artificielle
Les plus connus à l'époque étaient les super calculateurs vectoriels Cray comercialisés à partir de 1975. Avec leur look particulier qui permettait de réduire la longueur des fils de la connectique pour gagner de la vitesse (dans les fils de cuivre, les électrons se déplacent à 1/10 de la vitesse de la lumière, c'était avant la fibre optique).Dédale a écrit:Entre autre, elle était équipée du même processeur, un Motorola, que certains supercalculateurs américains dont je ne me souviens plus du tout le nom.
Bean- Seigneur de la Métaphysique
- Nombre de messages : 6964
Localisation : Bretagne
Identité métaphysique : Farceur
Humeur : Joyeux
Date d'inscription : 16/04/2012
Re: Les promesses de l'intelligence artificielle
Moguilev a écrit:Quand j'ai commencé dans l'informatique gros systèmes, au début des années 80, on disposait d'un Bull Iris qui occupait une immense salle.
Il me semble me souvenir qu'il ne disposait que de 128 Mo de mémoire vive. Quand aux disques amovibles, bien que très volumineux et très lourds, il avaient une capacité maximale de 100 Mo de données.
Le gros boum technologique, ça a a commencé dans les années 90.
dedale- Seigneur de la Métaphysique
- Nombre de messages : 5840
Age : 63
Localisation : SO France
Identité métaphysique : Indiscernable
Humeur : Fluctuante
Date d'inscription : 14/11/2013
Re: Les promesses de l'intelligence artificielle
La première fois que j'ai entendu parler d'un Cray, c'était aussi dans les 90's et il me semble que c'était le plus puissant de l'époque, à avoir dépassé le gigaflops.
dedale- Seigneur de la Métaphysique
- Nombre de messages : 5840
Age : 63
Localisation : SO France
Identité métaphysique : Indiscernable
Humeur : Fluctuante
Date d'inscription : 14/11/2013
Re: Les promesses de l'intelligence artificielle
- HS:
- Ou il est Mon ZX81 et c 1 ko de mémoire vive, avec la sauvegarde de mes petits programmes sur cassettes audio.
Re: Les promesses de l'intelligence artificielle
- Il est ici:
_________________
Hello Invité ! Le du 01 novembre 2024 est en ligne et accessible directement en cliquant sur "Meta-Quizz" .
Vous pouvez choisir le thème du prochain quizz en cliquant ICI , pour participer au sondage !
Re: Les promesses de l'intelligence artificielle
Je regarde ce lien : [Vous devez être inscrit et connecté pour voir ce lien]mirage a écrit:Je comprends pas trop cette barrière de "quantité d’énergie disponible"
Le meilleur super calculateur du monde consommé 15 MW , je pense que le cout de l'électricité va etre trop élevé, donc c'est le cout de l'électricité qui va etre une barrière.
À titre de comparaison, l’ordinateur le plus puissant à l’heure actuelle, le chinois Taihulight, tourne à 93 petaflops par seconde. Il n’en consomme pas moins la bagatelle de 15 mégawatts (MW)… pour une facture énergétique de l’ordre de 22 millions d’euros par an !
noureddine2- Affranchi des Paradoxes
- Nombre de messages : 462
Localisation : maroc
Identité métaphysique : science
Humeur : determniste
Date d'inscription : 16/04/2011
Page 2 sur 2 • 1, 2
Sujets similaires
» Naissance de la vie artificielle
» Intelligence artificielle
» Espérance de vie dans une comète artificielle
» Intelligence artificielle
» Espérance de vie dans une comète artificielle
Page 2 sur 2
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum