Depuis que les portables peuvent facilement basculer entre un IGP et une puce graphique dédiée puissante, discréditer les cartes graphiques puissantes pour raison d'autonomie et de consommation ne tient pas la route. Ces technologies existent directement chez ATI (Switchable Graphics) et NVIDIA (Optimus) ou ont été développées plus tôt spécifiquement par des constructeurs comme Apple (un nom pour la techno ?) et Sony (Stamina). Ce sont des technologies vraiment efficaces et pratiques. Les constructeurs ne sont plus obligés de faire un compromis entre puissance graphique et autonomie. Surtout que les puces graphiques (mobiles) ont plusieurs fréquences de fonctionnement...
Dans un portable de 15 pouces, on peut techniquement mettre un ODD sans souci de place et ce genre de châssis peut gérer un TDP de l'ordre de 70 à 80 Watts. On peut donc y loger un gros Core i7 Quad Core et une bonne grosse carte graphique surtout depuis qu'elles sont désactivables. Dans un 15 pouces, n'importe quel constructeur a une belle marge de manuvre même en 1 pouce d'épaisseur.
Dans un 13 pouces avec ODD, la place est déjà nettement plus comptée et ce genre de châssis est souvent limité à 50 watts de TDP. Il est possible de mettre un Core i5/i7 Dual Core et une carte graphique entrée de gamme. En retirant l'ODD, on peut mettre un meilleur système de refroidissement. En gardant l'ODD, le prix grimpe mais on peut monter un GPU puissant. On trouve des portables de ce genre chez Sony, Acer, HP, etc.
Voilà pour la partie plutôt technique et pas vraiment dépendante du constructeur de portable, la physique et la thermodynamique étant d'application partout !
Le "problème" de l'Intel HD 3000 est sa puissance. :hein: Non, je ne me trompe pas. Jusqu'à fin 2010, les ordinateurs portables (PC) avec un GPU premier prix embarquaient une Radeon HD 5470 ou une GeForce 310m, plus puissante que la puce intégrée aux premiers Core i3, i5 et i7 au au chipset des Core 2 Duo. Le "problème" de l'Intel HD 3000 est qu'elle rivalise sans problème avec ce genre de GPU tout en consommant nettement moins au repos. Même si ATI et NVIDIA semblent avoir des dizaines GPU mobiles différents quand on regarde leur offre, seuls quelques uns sont utilisés massivement. Aujourd'hui, il n'y a pas vraiment de GPU bon marché capable d'assurer un bon gap de performances par rapport à l'HD 3000. Du coup, bon nombre de portables se retrouvent avec un Sandy Bridge et son IGP sans GPU. Pour les constructeurs, un surcoût lié à un GPU pour 15 à 20% de performances en plus n'a pas vraiment de sens dans des produits d'appel. Je serais d'ailleurs très curieux de savoir précisément l'écart de performances entre l'HD 3000 et la Radeon HD 5490. Il ne doit pas être bien gros. Et c'est bien là que le choix d'Apple est paradoxal. Surtout que le 15 pouces haut de gamme a une Radeon HD 6750 franchement "violente" en 3D.
On se souviendra également des discours d'Apple quand OpenCL est arrivé. Avec NVIDIA et son marketing derrière, le GPU allait assurément remplacer le CPU. Cette année ou fin 2010, THFR a publié un article sur l'usage du GPU dans les logiciels pour OS X. C'est accablant ! Il n'est pour ainsi dire jamais utilisé comme il aurait pu/du l'être... D'où le retour à ATI ? Ici, on assiste à un retournement de situation avec un retour au "tout au CPU".
Depuis de très nombreuses années, NVIDIA ou pas, Apple a toujours été un des constructeurs à mettre le plus de puissance graphique dans ses portables. En 2001, la ATI Rage Mobility 128 des PowerBook G4 était un des plus gros GPU mobiles (je jouais à Quake III sur mon Thinkpad A20p dans le TGV avec le même GPU). Sans oublier les G4 12 pouces avec une GeForce Go 440 et un ODD quelques années plus tard. A l'époque, je n'avais pas de MacBook mais leur puissance 3D était connue même des utilisateurs de PC portables. Jusqu'à l'arrivée de cette Radeon HD 5490, Apple n'a jamais fait reculer les performances 3D du MacBook Pro 15 pouces (sauf avec une version économique sans GeForce 9600m GT des 15 pouces Unibody).
Côté "utilisateurs", que dire à part que pour beaucoup, c'est le reflet de la société actuelle. La carte graphique du MacBook Pro ? Bah, je m'en tape, je ne joue pas... Enfin, c'est un peu habituel sur les forums Apple où on lit encore :
- un ordinateur n'est pas fait pour jouer, il y a des consoles pour ça.
- un ordinateur c'est pas fait pour lire des BluRay, il y a des lecteurs et des téléviseurs.
- un ordinateur monté soi-même, beurk, c'est sale. Et un home cinéma en composants sélectionnés, c'est sale aussi ?
Pourquoi carrément ne pas en être resté à l'idée de base : un portable pour travailler uniquement (un MacBook Air 11" et rien d'autre). Et si le Mac d'aujourd'hui ne lit pas les BluRay, pourquoi celui d'il y a 10 ans lisait les DVD ? Le Mac n'est-il pas un ordinateur multimédia ? Il y a autant d'incohérence dans les réponses de certains fans que dans les choix d'Apple.
A cette époque, les batteries n'étaient pas aussi puissantes que maintenant. Les cartes graphiques n'avait pas une fréquence variable, elles n'étaient pas désactivables. Les systèmes de refroidssement était en aluminium. Maintenant, on a fréquement des batteries de +66 Wh, des heatpipes en cuivre ainsi que des fréquences variables et l'arrêt des unités inutiles sur les CPU et GPU.
Et le MacBook Air a quand même un GPU plus puissant que le MacBook Pro 13 pouces. Accessoirement, il existe des portables 13 pouces avec une Radeon HD 5650, 50% plus puissante que la GeForce 330m d'un MacBook Pro 2010. Et oui, ils tiennent plus de 8 heures sur batteries en utilisant l'IGP Intel. Et non, ils ne font pas plein de bruit en bureautique.
Techniquement, c'est tout à fait réalisable de mettre un GPU dans un 13 pouces.
Un 13 pouces du poids du MBA vendu actuellement en fin de série à ~1200 TTC avec un GPU comme le MacBook Pro 2010.