Apple va s'impliquer beaucoup plus

naas a dit:
En attendant vous pourriez pas optimiser votre écriture, parce que là... c'est un peu difficile de vous lire :heu:

Freeza ne parle qu'en SMS et c'est pour ça qu'on ne lit pas ses posts... :sleep:
 
  • J’aime
Réactions: BioSS
bon ok je fais pas beaucoup d'efforts au niveau de l'écriture mais quand meme de la à pas lire faut pas pousser...trop de chichi
 
naas a dit:
on pourrais même pousser le raisonnement plus loin en s'inspirant des consoles qui possédent des cpu pour tout, rendement 2d paysages, calculs polygones, etc etc

bref un partage des taches vers des unités dédiées rapide et simples pilotées par plusieurs cpu dont le boulot serait de manager ces dites unités

alors ma'ame soleil oui/non ?

Il me semble avoir déjà vu cela 20 ans auparavant... je crois même que ça s'appelait AMIGA ;) ... :D
 
je te rassure jaidu respect mais bon ca menerve un peu quand jai des reflexions un peu limite

bref cest pas le sujet.

jespere sinceremet que la gamme de carte graphiqe mac sera aussi étoffée que celle des pc dici un moment car franchement pour le moment ca craint un peu(peu de choix et encore cher par rapport à pc)
 
naas a dit:
En attendant vous pourriez pas optimiser votre écriture, parce que là... c'est un peu difficile de vous lire :heu:

je n'osai pas le dire ! :D :D

Sinon intéressant ce fil. Je pense qu'en effet, les trois composants à booster sont la carte graphique, les disques durs (surtout eux, pour le temps de lecture.. Les accès disques éliminés, un véritable rêve !!) et la Ram.

Il est vrai que niveau carte graphique, il est temps qu'on arrive à des performances proche de l'image de synthèse temps réel. Que l'on puisse enfin travailler l'image (et la vidéo) dans d'aussi bonnes conditions que ceux qui bossent sur le son actuellement, et où tout est en temps réel.

Côté disque dur, il faudrait un temps de démarrage nettement plus rapide (par exemple après une mise en veille...), des accès disques transparents, et une vitesse d'écriture améliorée. Mais vu le SATA qui est vraiment impressionnant, je pense que même si le disque dur c'est un peu le parent pauvre de l'ordinateur, il viendra vite à évoluer.

Niveau Ram, je m'y connais pas, mais la SRAM est intéressante.
 
Hello à tous,

Apple décidant d'optimiser le graphisme de nos chères machines? oui à plus d'un titre !

1) Dans Panther, lancer un calcul très lourd, genre scène 3d (blender, rendu Yafray > ratyracing et mapping Hrdi pour ceux qui connaissent) appuyez sur votre jolie touche F9 et là les fenêtre bougent de façon fluide, donc ce n'est pas le processeur central (occupé à calculer) qui bouge les fenêtres, mais bien la Cg , à mon sens un prémice de ce que sera Core Image.

2) L'ati 9700 de mon powerbook 1,5 (15") , ainsi que qlqs autres sont rerprises dans la liste de compatibilité avec Core Image, donc l'intégration de telles cartes dans des portables (qui au demeurant son plus puissant que les Fx 5200 de certains G5 ) indique que le mouvement est enclenché et qu'un nivellement par le haut des adaptateurs graphiques est en route, commencer par le haut de gamme portable est un signe fort, gamme qui d'habitude est un peu le parent pauvre des solutions graphique, tant pour des raison de couts évidentes que des raison techniques (consomation et température), s'atteler à résoudre ces problèmes pour intégrer des solutions graphiques performantes donne lieu à penser que le soft ne peut que supporter des telles évolutions.

3) Nous allons comme dans certaines glorieuses anciennes machines (amiga, atari Falcon etc...) et comme il a été cité précédemment dans les consoles, vers des unités de claculs très spécialisées, et pt être un peu plus nombreuses, rappelez vous des pc (ou mac) des générations précédentes ou le processeur faisait tout le boulot de calcul et ou la carte graphique ne faisait qu'une mise en forme de données, je crois qu'Apple avec ses ressources internes et des partenariats très étroits pourra (re)donner ses lettres de noblesses à l'utilisation de processeurs spécialisés. J'imagine un photoshop avec le traitement di'mage effectué par la carte graphique, ou un blender ou la carte graphique calculerait quels pixels sont visibles (donc à calculer) et les ombres portés des objets... , Ibm n' a t il pas dans ces cartons un projet de processeur multicore? dont chacun pourrait s'atteler (avec une réécriture du microcode "à la volée" un peu comme les processeurs transmetta) à des tâches spécifiques? je crois que l'avenir nous promet bien des choses..


Pour conclure, récent switcher, je peux vous dire que lancer le calcul décrit plus haut me bloquait mon pc en terme d'utilisation, oh bien sûr je pouvais l'utiliser, mais pas d'une façon aussi "fluide" que mon nouveau mac, de plus me rendant compte du niveau d'intégration du soft par rapport au hardware, il me semble impensable de mettre une ATI 9700 Mobility dans un portable ou de donner la possibilté de mettre une GeForce 6800 dans un G5 (aucune des ses deux machine ne sont des machine de "gamerss") sans se servir de la puissance de traitement proposés par ces périphériques.

J'en ai fini, m excuse des fôôôtes d'ortho et puis,... bien content d'être sur mac :-)

Sky
 
Enfin un nouveau qui dit des choses intéressantes ;)
Excellent post. Dans l'ensemble c'est pas con. Autrement, au sujet d'exposé, en effet, c'est bien la carte graphique qui calcule l'effet il me semble, mais uniquement avec les cartes compatibles Quark Xtrem. Chez moi, j'ai qu'une simple Ati Rage 128, et autant vous le dire, (j'ai installé menumeter, ce qui me permet d'afficher un petit pourcentage des ressources processeur), mon processeur travaille à fond pour tout ce qui est graphique (effet génie, exposé, etc..). La carte graphique est nettement trop dépassé pour gérer Quark Xtrem. C'est con, parce qu'elle est bien évidemment capable de faire ces effets en temps réel (chaque fenêtre devenant un polygone avec exposé, n'importe quelle carte graphique est capable de gérer le mouvement de 4 ou 5 polygones..)...
Bref. Pour le moment, il me semble que le processeur joue un rôle important dans l'affichage (l'effet génie monopolise les ressources même avec un ordi récent). Faut attendre Tiger pour avoir une interface gérée entièrement à la carte graphique, ce qui libérera totalement le processeur de ces taches. Résultat : on va peut-être, enfin, retrouver la réactivité d'OS9... :D
 
Bioss c'est pas Quark comme l'editeur mais quartz. Et donc quartz extreme. Comme l'a souligné S Jobs lors de sa Keynote à la WWDC, les cartes graphiques deviennenet de plus en plus sophistiquées et jusque là leur possibilité graphique n'était pas exploitées. D'autre part comme je l'ai souligné dans un post récent, Apple il y a quelque temps avait racheté Raycer Graphics une petite boite spécialisée dans la conception de composants permettant d'accélérer le comportement des cartes graphiques 3-D. Ce sont justement ces ingés qui sont à l'origine de ce mouvement. Comme ils maitrisent vraiment la technologie de ces cartes, ils ont apporté pas mal d'amélioration à la gestion graphique sur Mac OS X. L'optimisation d'OpenGL, le développement de Core Image et Core Vidéo, bref l'utilisation optimale de la GPU.
 
bien sûr que l'idée de multi processeur spécialisés n'est pas neuve, il suffit de regarder macosx et ses bases pour voir qu'une bonne idée ne meurt jamais, sauf peut être l'os du MIT ...
ce qui me plaît a discourir c'est l'après, après ces optimisations graphiques quelle va être le grand axe d'optimisation ? (ou disons plutôt, parmi les idées des labos, laquelle va sortir et survivre pour exister au grand jour ? :zen:
 
probablement la surenchère visuelle ( les écrans en 3D. A Carrouf' y en ont, c'est simple, imaginez un hologramme, mais en vidéo ! C'est proprement hallucinant. Immersif, voilà le mot. Et tout ça, sans lunette... :D ).
Ou la rapidité des accès disques, etc etc...
 
Quelqu'un a des renseignements sur le gain potentiels du multi core? A taille et nombre de transistors équivalents, vaut-il mieux un processeur monocore ou bicore (on va commencer simple, hein :D)? :confused:

Bcp d'unités de traitements sont déjà en double dans les procs actuels (cf les WWDC et les speechs de steve sur le G5), est-ce une forme déguisée de multicorisme? :siffle:

:zen:

Note: Ouais freeza t'es pas très agréable à lire, le style "normal" sur ces forums c'est d'habitude des majuscules, des mots entiers, de la ponctuation, des apostrophes et, cerise sur la gâteau (sauf si tu tombes sur le spécimen local, j'ai nommé le Mackie :D), des accents. Essaye de faire un effort en ce sens pour qu'on ai plus envie de te lire ;) Merci :thumb: