Intel : 48 coeurs sur une puce… pour commencer

Florian Innocente |
48, c'est le nombre de coeurs que les labos d'Intel sont parvenus à réunir au sein d'un processeur expérimental. Ce système est donné comme assez économe, ne consommant que 125 watts à plein régime et 25 watts au ralenti (YouTube). Pour comparaison, le Core i7 2.8 GHz des iMac 27" en est à 95 watts.

scc-h-rack2


"Intel prévoit de mieux comprendre comment ordonnancer et coordonner les cœurs de cette puce expérimentale, pour ainsi en faire profiter ses futurs processeurs courants. Ainsi, de futurs PC portables dotés de capacités de traitement de cette magnitude pourraient bénéficier d’une « vision », au même titre qu’un être humain voit les objets et les mouvements en temps réel avec une grande précision." explique le fondeur.

Ce processeur a été baptisé "Single Chip Cloud Computer" (ordinateur monopuce « virtuel » ou « nébuleux ») en référence au principe de fonctionnement des data center qui concentrent une forte capacité de calcul au travers de nombreux ordinateurs. Intel y voit une manière de réduire la consommation énergétique de ces installations et d'améliorer les performances de calcul puisque des traitements habituellement distribués entre plusieurs ordinateurs sont ici ramenés au sein d'une seule machine et de son processeur. L'hypothèse de pouvoir aller jusqu'à 100 coeurs voire plus est d'ailleurs évoquée.

YouTubesinglechip


Une centaine de ces prototypes devrait être fabriquée et diffusée à travers des équipes de chercheurs pour travailler à la mise au point d'applications et de méthodes de programmation pour ces processeurs dits très multicoeurs.


Tags
avatar fedorinux | 
On peut aussi rappeler le prototype 80 coeurs présenté à l'ISSCC en 2007.
avatar terreaterre | 
>> Ainsi, de futurs PC portables dotés de capacités de traitement de cette magnitude >> pourraient bénéficier d’une « vision », au même titre qu’un être humain voit les >> objets et les mouvements en temps réel avec une grande précision." On fera du multi touch devant un webcam sans souris ni track pad. Si on apprend le langage des signes on pourra s'essayer à la dictée devant la même webcam.
avatar HAL-9000 | 
A quand ce processeur dans les MBP ?? J'espère à la MaJ début 2010 !!! Parce que bon mon C2D bof, bof... Bulshit !
avatar SebDominguez | 
Deja qu'un 8 cœur coûte la peau des fesses, j'me vois mal hypothéquer ma maison pour avoir un 48 cœur... M'enfin, peut être que ça ce passera comme pour le SSD, les prix deviendrons plus raisonnable d'ici 2150
avatar Hasgarn | 
Vive Grand Central Dispatch ^^… … Je crois qu'il faudra revoir un peu le code quand même.
avatar Achylle | 
Les processeurs avec pleins de coeurs, c'est super..... sur le papier. Actuellement, ce que je vois, c'est que bien trop souvent un processeur avec une fréquence élevé reste plus performant qu'un processeur avec pleins de coeurs de fréquences inférieures. Tant que ces monsieurs les développeurs ne feront pas des applis pensées multicoeurs, il sera toujours mieux d'avoir un double coeur a 3ghz, qu'un quadri coeur a 2ghz.... et c'est bien dommage. Maintenant, c'est le boulot d'intel de faire du matos toujours plus performant, mais il faudrai que derrière sa suive aussi. Car ce que je remarque c'est que depuis que la course au megahertz s'est terminée, ben la puissance des machines d'une génération sur l'autre ne fait pas un bon extraordinaire... Combien de fois, je me retrouve avec un coeur a 100% et l'autre qui glande ? Et même si SL essaie de changer les choses en distribuant un peu mieux la charge (je vois des différences par rapport a Leopard), ce n'est toujours pas ça.
avatar markeron | 
Wow la tête du mec ! ça c'est une tronche !
avatar tamlab | 
Le développement d'applications en parallèle n'est pas pour demain. Autant les consommateurs s'approprient rapidement les nouvelles technologies. Autant les développeur aiment rester sur des terrains connus. Non pas qu'ils n'aiment pas les nouvelles technos, bien au contraire. Mais le problème c'est que pour la programmation en parallèle, il va falloir repenser toutes les méthodes de développement. Et pour le moment, on est dans la production de code le plus rapide possible donc pas le temps ni l'argent de se mettre à la programmation parallèle. Enfin il va bien falloir s'y mettre et quand de grosses sociétés de dév vont mettre ça à la mode. Là, nos petits multi-coeurs vont être à la fête.
avatar SuMyDi | 
@Achylle Tu sais, ça fait un moment que les dev se penchent sur la programmation multi-process et multithread. Ca se compte en dizaines d'années même. Alors, oui, peut-être que les logiciels que TOI tu utilises ne sont pas optimisés pour des architectures multi-coeurs mais une grosse quantité d'autres sont prévus pour. Ensuite, je pense que dans l'utilisation quotidienne d'un ordi, on fait tourner plusieurs applis en même temps. Donc un processeur multi-coeur est avantageux dans ce cas-là, même si ça n'accélère pas une appli précise, ça améliore la réactivité du système globalement. Tout cela pour dire que j'en ai assez d'entendre des phrases du genre "Messieurs les développeurs sortez vous les doigts du c...". Passer d'une version mono-thread d'un logiciel à une version multi-thread ne se fait pas d'un coup de baguette magique (ben non, c'est pas comme dans les films), surtout quand le logiciel est multi-plateforme, multi-OS et a derrière lui plusieurs années d'existence. Ca demande du temps. Le reproche éventuel que l'on puisse faire à un développeur est de ne pas avoir prévu de pouvoir faire tourner des parties de son appli en parallèle. Mais qui est assez fort pour prévoir ce que sera l'informatique dans 15 ans ? Allez, bonne journée à tous !
avatar Vivid (non vérifié) | 
>Achylle ce n'est pas MONSIEUR les développeurs, mais MONSIEUR les actionnaires, les rentiers... comme au 19 éme !! non non! rien a changer, oui oui etc etc..
avatar Spart | 
@ Achylle Tu es en train de comparer une charrette avec 4 boeufs à une navette spatiale. "Le tout est plus grand que la somme des parties" est encore vrai, tant pour le "processeur" que pour le cerveau humain. C'est une question de masse critique. Ras le pompon des ingénieurs en bureautique qui pontifient sur la recherche de pointe en informatique. Allez. Fais dodo.
avatar Par1s1en | 
[quote]Ce processeur a été baptisé "Single Chip Cloud Computer" (ordinateur monopuce « virtuel » ou « nébuleux »)[/quote] Je propose "grille de calcul monopuce". « Nébuleux » n’est pas adapté, car il s’agit d’une traduction trop littérale qui, en français, produit presque un contresens (Nébuleux : [i]fig.[/i] Dont le sens n’est pas clair, qui est vague, obscur).
avatar HAL-9000 | 
@ Achylle/SuMyDi +1 Quand je vois que Matlab et Simulink ont incorporé le multithread dans la version.... 2008 ! Et uniquement sur les plateformes 32bits bien sur... Avec une note de MathWorks comme quoi le multithread En 64bits sera implémenté dans les futurs versions... En sachant que dans la plupart des cas, chez les pros on utilise généralement une machine (voir plusieurs) pour faire tourner 1 seul logiciel (par exemple dans les banques les calculateurs de code C/C++, Java, Matlab, etc...). Maintenant les logiciels de calcul, faute de limite de fréquence d'un coeur, se repose de plus en plus en complément sur les performances des Cartes graphiques... Et voici qu'Intel nous fait la promo de son Core i9 [b]sous-cadencé[/b] possédant 6 coeurs physiques et 12 coeurs logiques, mais LOL...
avatar Anonyme (non vérifié) | 
[quote]Passer d'une version mono-thread d'un logiciel à une version multi-thread ne se fait pas d'un coup de baguette magique (ben non, c'est pas comme dans les films)[/quote] T'as des titres de bons films dont le héros convertit une appli mono-threadée et multi-threadée ? J'en ai jamais vu. A quand Harry Potter and the Grand Central Dispatch ?
avatar SuMyDi | 
@sunjohn Oui, il y a "L'attaque du processeur multi-coeur géant", c'est la suite de "L'attaque de la moussaka géante"... Blague mise à part, en général, dans un film où il y a un "génie de l'informatique", il arrive toujours à pondre un programme de décryptage de langue extra terrestre en 5 minutes, à entrer sur le site ultra-protégé d'une organisation quelconque en regardant le dernier épisode de Lost et construire un ordi surpuissant à partir d'un poste de radio. après on s'étonne que les gens râlent parce que les vrais développeurs de la vrai vie sont si lents (ce sont vraiment des glandeurs !).
avatar Goldevil | 
Certains types de traitements sont très difficiles à paralléliser. Autant en traitement de l'image et en vidéo, certains algorithmes profitent très bien des multicores, autant d'autres types de processus sont de vrai casse-têtes une fois parallélisés (gestion des ressources dans un moteur de DB par exemple). A tous ceux qui critiquent ces Messieurs Développeurs, je leur proposent de faire avec leur petites mains un logiciel qui profite convenablement de 4 coeurs. Rien de compliqué. Disons juste un correcteur orthographique qui détecte les fautes dans un même document au moins 3 fois plus vite qu'en mono-thread. Et vous pouvez utiliser Grand Dispatch Central, OpenCl ou n'importe quoi d'autre.
avatar Achylle | 
Oula, je vois que je soulève un tollé, ce n'était pas le but. Mais merci de vos gentils messages. Ce que je cherche à comprendre, c'est comment améliorer les choses, car se contenter de constater que c'est difficile, que ça change nos habitudes, etc... ce n'est pas pas manière de penser. Car a priori, on remarque que la barre des 3ghz ne sera pas trop dépassée à l'avenir. OK Mais, a quoi vont nous servir ces 48 coeurs si les gros programmes ne sont pas développés en amont de façon à les exploiter tous ? Car, on ne parle pas de puces serveurs, ni de virtualisation là, mais bien de puces grands publics (pour portables même).. Hors monsieur tout le monde n'a pas constamment 50 programmes différents de lancés, à forciori sur un portable, donc à quoi vont bien pouvoir lui servir tous ces coeurs si les applis ne les exploitent pas ?
avatar SuMyDi | 
Achylle, ce sera toujours utile. Même si l'utilisateur ne lance pas plusieurs applications, l'OS en lui même lance plusieurs processus lorsque tu démarres ton ordinateur. Comme je disais plus haut, plusieurs coeurs permettent une meilleure réactivité de l'ensemble du système. La prise en compte de nouveau matériel par des logiciels existant depuis longtemps va demander du temps. Mais ça se fera. Par contre, on peut espérer que toute nouvelle application, commencée maintenant, prendra en compte dès le départ les archis multi-coeur. Mais, comme le disait Goldevil, certaines applications sont très dures à multi-threader. Il peut même arriver que paralléliser un bout de code soit moins efficace que la version mono-thread (problème de cache, de changement de contexte, d'interdépendance de données, ...). Oui, la course aux Mhz est terminée. Maintenant on va vers une archi massivement parallèle. Puis il y aura d'autres progrès techniques. Ce qui est amusant, c'est qu'il y a 20 ans, les particuliers se contentaient de machine de quelques Mhz. Maintent il leur faut des bêtes de courses... Alors c'est vrai que l'usage de l'ordi s'est démocratisé et a changé : montage vidéo, retouche de photos, ... activités gourmandes autrefois réservées aux pros. Mairs bon, parfois il faut être patient et se contenter e ce que l'on a (et je trouve qu'aujourd'hui, le particulier a accès à du bon matos et de sacrées applis). Bonne journée à toi
avatar oeufmollet | 
C'est clair que pour des applications comme celles qu'on utilise dans la vie courante, c'est pas evident de passer à du multi-coeur. Ca implique de repenser completement l'architecture du logiciel ... facile si c'est pti tetris, bcp moins si c'est un gros logiciel. J'ai deja écrit des logiciels pour des pc industriels temps réels bi-xeon (donc 2 cpu xeon qui acceptent en + le multithreading, donc 4 cpu logiques), il y a qq années, en dispatchant les taches logicielles sur les différents cpu, et rien que pour faire ça, ça m'a obligé à mettre un peu partout des systemes de synchro entre les différentes taches et à surveiller les accès simultanées aux données. Quand je vois comment c'était galere dans certains cas, avec 4 cpu logiques, pour un logiciel pas enorme, j'ose pas imaginer la chose avec plusieurs dizaines de cpu pour un gros logiciel ;) Bref, tout ça pour dire qu'un logiciel qui profite du multicoeurs, ça se crée pas aussi facilement qu'un monocoeur, bcp de choses à réfléchir : il suffit pas de dispatcher les traitements sur les différents coeurs, il faut aussi tout synchroniser correctement, gérer les priorités, les accès simultanées aux données (et oui, si une tache en modifie une pendant qu'une autre tache la lit, c'est la loose), bref, plein de choses qu'on apprend en informatique temps réel ;)
avatar lennoyl | 
D'ici que de tels multicoeurs arrivent dans nos machines, on peut espérer que la plupart des applications importantes gèreront les multicoeurs (même s'il est vrai qu'on pourrait espérer un peu mieux actuellement de la part des éditeurs)
avatar biniou | 
@terreaterre : on le faisait déjà avec un P4 ... ou un G5
avatar Un Vrai Type | 
@ Achylle : Selon moi, le modèle même de l'ordinateur est à remettre en cause. Un bref historique : 1 processeur pour plusieurs humains (Les "terminaux" qui n'étaient que des claviers/écrans déportés). 1 processeur par humain. C'est ce qu'on a appelé l'informatique personnelle (PC) et ça a commencé avec (entre autre) l'Apple I (1976). Plusieurs processeurs par humain - On est dans la transition... Entre les téléphones devenus des ordinateurs, le fait qu'avoir 2 ordinateurs n'est pas étrange et surtout, la multiplication des processeurs/coeurs dans un seul ordinateur (sans compter la carte graphique qui devient un copro arithmétique comme sur les LC III), on a de quoi noter cette évolution récente. Je pense que la transition en cours n'est pas "lisible", on ne sait pas vraiment vers où se dirige l'informatique en général. Est-ce qu'on aura un boitier avec un processeur 128 coeurs à 4Ghz dans notre poche et qu'il fera fonctionner selon nos besoin notre téléphone portable, notre écran touch ou notre téléviseur hyperHD ? Il suffit d'avoir 2 macs à la maison pour se rendre compte que le problème actuel est plus porté sur les données que sur la puissance. Le syndrome : "J'ai vu un site hier.. Ha merde c'était sur l'iPhone, je suis sur l'iMac ..." Clairement, Intel l'a d'ailleurs souligné, ce type de processeurs est là pour remplacer les réseaux de calculs. (Et les projets comme SETI@Home prouvent que les ingénieurs sont déjà très fort en calculs parallèles). Beaucoup d'algorithmes d'IA peuvent se paralléliser. On va enfin pouvoir jouer contre des bots qui apprennent... (en fait on pourrait depuis un moment...) Comme toujours lors d'une transition, il ne faut pas chercher comment ce qu'on fait très bien aujourd'hui peut resservir mais que va nous apporter la nouvelle façon de faire. En effet, les expériences se cumulent. Vous savez depuis le modèle "carte mère / cartes filles" la façon de calculer "1+1" est identique...
avatar Un Vrai Type | 
@ SuMyDi : Si l'informatique actuelle démontre quelque chose, c'est bien que de manière générale les développeurs ont besoin de plus en plus de ressources pour faire la MEME chose qu'avant. De manière générale le matériel est de moins en moins bien exploité. En théorie, la puissance des cartes graphiques avec 64Mo pourrait afficher n'importe quel effet 3D en temps réel sur des écrans standards ( jusque 1050*1680 par exemple). Mais dans la pratique, sans la dernière carte à 512Mo, pas d'effet flamme bleutée qui scintille...
avatar oeufmollet | 
Tiens, interessant ton message, "un vrai type", je suis assez d'accord avec et ça montre bien l'evolution de l'informatique depuis ses debuts. En effet, aujourd'hui (et depuis deja qq temps), c'est pas trop la puissance qui manque à nos ordis, à part pour les gros joueurs ou ceux qui font des traitements enormes à domicile sans etre patients (genre de la video). C'est plus ce qui est à coté du processeur qui limite souvent les resultats, en particulier les transferts de données trop lents (disque dur pas assez rapide). Bon, certains passent au ssd ou aux hdd 15000tr, mais c'est bcp + cher. Sinon quand tu parles des pb quand on a 2 machines, c'est pas faux, d'ailleurs il existe de plus en plus de solutions pour synchroniser nos données, entre le service mobileme ou d'autres concurrents, ainsi que des logiciels spécialisés comme evernote. Ca prouve bien que de plus en plus de personnes utilisent plusieurs ordinateurs au sens large (qui comprend aussi les iphones ou ipod touch, capables d'aller sur le net ...)
avatar misterbrown | 
Ca avance sur tous les fronts... mais quand est ce qu on sortira vraiment de la technologie transistors gravés pour nos puces principales? Bientot, 100, 200 coeurs.. J ai l impression que le mastodonte intel ne maitrise bien (tres bien) que la gravure, et que l émergence d un nouvelle technologie n'est pas pour demain. (les groupes pétroliers et les voitures à la propulsion exotique)
avatar Anonyme (non vérifié) | 
[quote]Blague mise à part, en général, dans un film où il y a un "génie de l'informatique", il arrive toujours à pondre un programme de décryptage de langue extra terrestre en 5 minutes, à entrer sur le site ultra-protégé d'une organisation quelconque en regardant le dernier épisode de Lost et construire un ordi surpuissant à partir d'un poste de radio.[/quote] Et tu connais le coup du mec qui est capable de voir en 2 secondes ce que fait tout un programme mais qui ne connait pas le nom de son boulot ? http://www.dailymotion.com/video/x8nz1w_colin-farrel-connait-son-boulot_fun
avatar HAL-9000 | 
Pour l'avenir de l'informatique à très très long terme c'est la méca Q qui prendra le relais.. Les premiers algorithmes de Qinformatique sont déja developpés, par exemple l'algorithme de Shor (http://fr.wikipedia.org/wiki/Algorithme_de_Shor). On ne sera plus sur le binaire mais sur les spins d'énergie des electrons et autres, avec la particularité de représenter plusieurs états en [b]même temps[/b], ce qui est une ENORME avancée et qui représente a contrario un defi technique poussé (tous les états étant représentés, il est difficile de savoir l'avancé des calculs, quel résultat sur quel état, car tout est effectué à base de probabilités sur la superposition d'états)
avatar oomu | 
le "multi processeur" c'est très utile ce n'est pas nouveau les outils s'adapteront pour mieux exploiter les machines (compilateur, ide, etc) les systèmes d'exploitations en profiteront pour ajouter de nouveaux services et les logiciels seront écrits pour profiter des nouvelles possibilités des machines bref, dans quelques années vous vous plaindrez de n'avoir que 48 coeurs dans votre veau d'ordinateurs. Comme en son temps les cdroms, megas de mémoire vive, les gigas de disques dur; les i486 et que sais je : on s'en servira, peu importe si des gens n'imaginent pas quoi en faire, d'autres savent et feront de chouettes programmes. - "mais quand est ce qu on sortira vraiment de la technologie transistors gravés pour nos puces principales?" pas de votre vivant. il y a encore de nombreuses possibilités. je ne vois pas où est le problème avec la "gravure". vous voulez bouger les particules élémentaires à coups de microscope électronique pour former des petits transistor ? Il n'y a pas de "besoin" d'une nouvelle technologie vu qu'on a encore de nombreuses innovations a rendre exploitables industriellement. Sinon, vous avez des papiers théoriques d'ibm et intel sur ces questions. -
avatar oomu | 
"Si l'informatique actuelle démontre quelque chose, c'est bien que de manière générale les développeurs ont besoin de plus en plus de ressources pour faire la MEME chose qu'avant. De manière générale le matériel est de moins en moins bien exploité. " c'est faux. Tout le monde peut faire une démo sur amiga500 qui "torche " , mais la petite démo tourne toute seule, alors que de nos jour, on a Crysis en même temps que l'ordi surveille internet, traite les courriers, répond au tchat, gère l'énergie de la machine, et j'en passe. Les outils de développements sont d'une telle sophistication que oui, ils ont un prix en puissance de calcul "gâchée", mais le gain en échange est gigantesque :` - plus grande fiabilité des logiciels (ça plante moins que quand j'étais gamin), - nettement plus facile de créer de grands logiciels. Désolé mais je préfère 10 000 fois me faire du Objective C/Cocoa avec Xcode et Instruments, que du langage machine dans vi (textedit allez). Ha ben vi le runtime obj-C il mange, mais boudié, ca vaut le coup. De même, .NET a un prix conséquent en mémoire et processeur, mais c'est 1000 fois plus agréable et fiable de créer des logiciels avec que MFC/C++ de même que si on développe en JAVA en entreprise, c'est pour ne plus avoir à gérer des fadaises en C. On perd en processeur (le poids de la machine virtuelle), on gagne en fiabilité et facilité de programmation de logiciels géants. - La puissance des machines sert aussi à améliorer nos outils. C'est un _bon_ usage. AVANT c'était TARTE. Le passé n'est PAS beau. Le futur est Meilleur. Word 95 était nul. Mac os 8 plantait, Metrowerks Codewarrior n'était PAS un outil agréable, etc.
avatar Un Vrai Type | 
@HAL-9000 : Effectivement, j'espère vivre ce futur, ça s'annonce passionnant ET révolutionnaire. Actuellement, il me semble qu'en production (produit vendu donc...) IBM est un peu en avance avec un processeur 20 coeurs (5x4) à 4.4ghz... (et presque 5 milliards de transistors). Demain, la lumière remplacera l'électricité (ce qui changera un peu les priorités et contraintes des développement). On sait en fabriquer depuis... 2003 (pour des calculs spécifiques).
avatar SuMyDi | 
@sunjohn : merci pour la vidéo ! que du bonheur ;) @oomu : je suis complétement d'accord avec toi. Je pense que les gens oublient un peu vite les logiciels qu'ils utilisaient il y a 10 ans et les possibilités et la stabilité de ceux qu'ils ont maintenant.
avatar hawker | 
c'est quand que cette ***** d'architecture x86 va dégager a profit d'une toute nouvelle, bien plus évolutive et massivement parallèle ??
avatar Gimli fils de Gloin | 
M'en fous, j'attends les premiers processeurs quantiques.
avatar Un Vrai Type | 
@ oomu : Tu affirmes ici que programmer en objet utilise mieux les ressources que programmer en assembleur par exemple ? Non, la puissance permet de ne plus optimiser, de ne plus réfléchir (il faut produire du code rapidement, il faut que les logiciels soient obsolètes pour repartir rapidement de 0 etc...) et donc de moins bien utiliser les ressources disponibles. J'ai donné un exemple très concret dans l'industrie du jeu. Je peux aussi donne l'exemple des benchmarks qui servent au brainfuck de quiqui a la plus grosse et de moins en moins à l'optimisation. Bref, je ne dis pas qu'avant c'était mieux, je mets en avant que la puissance ne sert à rien actuellement et qu'au contraire, on en a tellement qu'on s'en fou.
avatar HAL-9000 | 
@Gimli fils de Gloin Moui un MBP avec Processeur Quantique sinon je retour chez PC.
avatar Hindifarai | 
@ HAL-9000 Les spins d'électrons ne peuvent avoir que deux états dans mes souvenirs de chimie quantique, je me plante? @ Un Vrai Type "Je peux aussi donne l'exemple des benchmarks qui servent au brainfuck de quiqui a la plus grosse et de moins en moins à l'optimisation. Bref, je ne dis pas qu'avant c'était mieux, je mets en avant que la puissance ne sert à rien actuellement et qu'au contraire, on en a tellement qu'on s'en fou." Il faut bien dissocier les benchmarks qui sont mis en avant dans les pubs ou sur des sites d'amateurs et les benchmarks faits en interne dans les boîtes...ça n'a strictement rien à voir. Si les utilisateurs savaient par quelles étapes on passe parfois ils seraient peut-être plus indulgents. J'ai travaillé dans l'embarqué (proc 8 bits, 64ko de mem...ça change la donne). Les produits qui sortaient passaient tous par une batterie de 500 tests, avec benchmarks et couverture de code associés. C'est autre chose que les benchmarks sur un comportement à un instant t d'un jeu sur une configuration lambda différente de celle du voisin. Concernant le multi-process on peut tomber dans des problèmes NP-complets si l'on veut sortir du mono-threading...si vous voulez débloquer quelques thésards sur le sujet vous êtes le bienvenu, il ne suffira pas de balancer du "mon jeu est trop lent alors que j'ai un n-coeurs c'est naze!". La théorie est travaillée depuis énormément d'années, les mutex et sémaphores ne sont pas les seules solutions, allez voir Lamport ou Ricart/Agrawala. Pour ce qui est du procès des langages objets je préfère me taire plutôt que d'imaginer un de vos précieux jeux vidéo programmé en C/asm avec z-buffer maison (ou lancer de rayon et radiosité puisqu'il vous faut des trucs super jolis :) ).
avatar DarkMoineau | 
[quote]"Intel prévoit de mieux comprendre comment ordonnancer et coordonner les cœurs de cette puce expérimentale, pour ainsi en faire profiter ses futurs processeurs courants. Ainsi, de futurs PC portables dotés de capacités de traitement de cette magnitude pourraient bénéficier d’une « vision », au même titre qu’un être humain voit les objets et les mouvements en temps réel avec une grande précision." explique le fondeur.[/quote] Bref j'ai trouvé un nom pour ce processeur moi, [url=http://terminator.wikia.com/wiki/Neural_Net_CPU]le Neural Net CPU[/url] :P Dites, les gars d'Intel avaient pas déjà annoncé la singularité technologique pour 2050?
avatar HAL-9000 | 
@ Hindifarai Oui mais si tu avais été assidu en cours tu aurais appris que les deux états sont simultanés jusqu'à l'observation ou la mesure (le principe du chat de chrodinger). Donc 8 qubits couplés possèdent la propriété de représenter tous les nombres entiers entre 0 et 255 de façon simultanée et non pas un par un comme aujourd'hui... Aller, il est jamais trop tard pour reprendre ses cours :)
avatar DarkMoineau | 
HAL-9000, suppôt d'IBM, tu défend tes pères fond(at)eurs? :p Sinon le processeur quantique en est à ses débuts mais peut déjà dresser de façon aléatoire des plans de table. L'avenir? Puces classiques pour du calcul précis et puce quantique pour les calculs de probabilité et, qui sait, l'IA?
avatar HAL-9000 | 
Je suis démasqué Arfff ! L'IA un peu que j'y crois, c'est moi :D
avatar DarkMoineau | 
Nan mais utilisation de processeurs quantiques pour l'IA.
avatar USB09 | 
C'est étonnant comment la noblesse humaine c'est cantoné a 2bit pour tout faire. Tout l'univers marche en même temps, mutidirectionnel, et rien que ça, ça en faitt un sacre processeur. P'tet qu on a un petit cerveau finalement.
avatar Un Vrai Type | 
@ Hindifarai : Je dissocie parfaitement les 2. Je me souviens des benchs où un G3 700Mh allait plus vite qu'un G4 500Mhz à la version 1.1.2.3b et où le même bench donnait l'inverse dans la version 1.1.2.4. Et les forums s'enflammer une fois que le G4 ne servait à rien puis ensuite que c'était génial (sans même remarquer la stupidité de leur argumentation). Quand aux langages objets je ne fais pas de procès d'intention, je dis juste que on peut les utiliser aujourd'hui PARCE QUE la puissance n'est plus un problème. C'est exactement comme pendant la guerre froide où les mathématiciens russes ont développé des algorithmes incroyables parce qu'ils n'avaient pas de "calculateur". La puissance actuelle nous a permis d'utiliser les langages objets, tout comme le futur permettra l'utilisation d'IA plus généralisé par exemple... Si on regarde bien, dernièrement, on reconnait les visages dans iPhoto, on reconnait un rendez-vous ou un lieu etc... Et si vous avez testé la complétion automatique sur un G3 700mhz, vous comprenez rapidement pourquoi à l'époque ça n'existait pas. Ça pourrait exister (en assembleur, optimisé etc...) mais ça demanderait un travail nettement plus important qu'aujourd'hui sur un core 2 duo en langage objet. Bref, c'était plus un exemple d'évolution pour avoir une piste sur l'avenir qu'une défense du "bon vieux temps" ou je ne sais quoi. Le fait est que la puissance a été un problème crucial et que ce temps (sauf dans l'embarqué par exemple) est révolu ce qui a permis une évolution. Notons aussi que l'optimisation (snow leopard par exemple) est toujours présente aujourd'hui.

CONNEXION UTILISATEUR