16 Go de RAM !

lupus yonderboy a dit:
Je pense qu'avec 16 Go, tu peux lancer plus d'applis que tu ne pourras en utiliser en une journée :D
je le crois aussi..:D ;)
 
-640ko suffira pour tous les besoins

puis on a eu envie de faire des feuilles de calculs intéressantes avec les tableurs et de lancer Wing commander...

- 640mo sur un cdrom suffira pour loooongtemps

puis seventh guest est sorti.. (4 cd hein)

- un espace mémoire de 4go c'est laAAAargement suffisant

puis on s'est mis à indexer des bibliothèques, le contenu en texte des livres, des photos, etc.. et on a été content de voir le 64b en vente



en un mot comme en 100 : vous ne voyez pas quoi en faire ? moi si !

- applications internet java avec bases de données, cache, servlet etc, ben 16go cela aiderait largement

- final cut pro "dis tonton, j'en ai marre que le disque dur rame chaque fois que j'inscrute mes gingles en HD 1080p " "tiens neveu vla 16go, et fermes ta gueule, je peux pas en mettre plus"

- "docteur, et c'est quand j'ai ouvert subethaedit après avoir exécuté final cut pro avec motion et compressor sur un fichier qt de 3go (mon film de vacance de 5h) , office, camino, safari, omnigraffle, delicious library, le dernier teaser chicken little en 1080p, écouté un podcast sur itunes et lancé 'make' de mozilla que le disque dur a gratté " "-heu vous fermez les applications parfois ? " "-hein ?" "-bon, on va vous mettre 16go, ca sera 11 000 euros, vous payez à ma secrétaire"

- "hé Gérard, tu verrais doom 6, pinaize sa mère, avec les textures 1080p, ca arrache donf sur mon écran fin de 60" , bon par contre, j'ai du acheter 16go de ram sinon ca swappait, les 4go de la geforce plutonium nitro XGT++ ne suffisait plus..." "-heu on est en 2005, man"

- "hééé Christine ! viens voir, sur le nouveau mac avec 16go de ram je peux scroller tout le samplage du code génétique du babouin en qq secon... merdes ca swappe, attends"
 
huexley a dit:
J'en ai vendu un la semaine dernière, Utilisation : Final Cut Pro

(avec une quadro FX)

La quadro FX ??
Il a besoin des utilisations particulières de la carte (rendu de l'image tridimensionnel etc..) ???
Parceque la 7800 est nettement meilleure dans le rapport qualité/prix ! Là pour le prix de la carte
il se fait littéralement pigeonner !
 
Sinon les 16 go sont à réserver au calcul scientifique, aux clusters,
aux ramdisks, aux rendus 3D (permet de réduire le nombre de couches
sur lesquelles on travaille pour les grosses productions.
l'intro de FFX a nécessité 120 couches environ différentes
car les ordis ne pouvait pas calculer les images d'un coup...).
 
SuperCed a dit:
16Mo, ça doit pouvoir servir dans certain cas de grosses productions 3D de cinema.
A part ça, je vois pas trop...
avec 16 Mo, tu peux au moins jouer au demineur en tout cas... :siffle:
 
Avec 16 Mo, on ne fait plus rien...

Avec 16 Go, en revanche, il y a des applications comme la cartographie, la compression de données, la recherche mathématique, les simulations physiques etc. qui vont pouvoir être accélérées d'un facteur 1000 environ, en tournant exclusivement en mémoire, au lieu de swapper sur le disque.

Dans mon boulot, j'ai des applis de ce genre qui, avec 512 Mo, prennent plusieurs heures de calcul (mais aussi et surtout de swap de la mémoire sur le disque). Elles pourraient donner ainsi les résultats en quelques minutes seulement.

A bien y regarder, 16 Go, ce n'est pas de trop. Et je ne plaisante pas.
 
huexley a dit:
:love: non c'est le client qui m'a dit "Je veux ça" :D

j'ai rien proposé :zen:
16 Go c'est suffisant pour charger 100 photos dans iPhoto non?
c'est aussi suffisant pou ouvrir un fichier word de 1,2 Mo
c'est aussi suffisant pour ouvrir Garage Band tranquillement

rien que pour ces petits "plus" je mets les 11 000 dollars sur table :)
 
16 Go, c'est bien, mais il faut aussi les exploiter. Derrière ça il faudrait aussi des mémoires cache plus grandes sur les CPU, et pour certaines applications qui s'y prêtent, même plusieurs CPU en parallèle (4, 16, ... 1024 ou plus) ou des CPU multi-core.

J'ai peut-être la folie des grandeurs, mais quand j'ai commencé à m'intéresser aux ordinateurs dans mon jeune âge, la "bête de course" du moment était le Cray One (1976), super-ordinateur mythique, dont j'ose à peine rappeller les caractéristiques :
- mémoire centrale : 8 Mo
- fréquence d'horloge : 80 MHz
- vitesse de traitement : 133 Mflops en pointe
- prix : 8,8 M$
- poids : 5,5 tonnes

Tout le monde a bien plus que ça sous la main de nos jours, et ce n'est plus pour faire des calculs d'aérodynamisme sur des chasseurs supersoniques.

Alors les 16 Go et les CPU kilo-core avec des caches de 1 Go sont peut-être pour bientôt, et pour quelques centaines d'euros seulement.

;)

EDIT: une chtit' photo de la bête
cray1.gif
 
Je confirme, dans la domaine physique (simulation mécanique des fluides pour ma part), quand on lance des calculs générant des fichiers temporaires de plus de 100 Go (!), eh bien voila le temps qu'on gagnerait sans swappage ! Mais bon, aucune carte mère ne peut gérer autant de ram alors on swappe, et on va prendre un café... ;-)

Par contre, jamais vu de macs dans ce domaine-là (je rassure, pas trop de Windaubes non plus, plus du Linux).
 
16 Go de RAM c'est aussi bien utile pour faire des simulations complexes.

En ce moment, j'ai accès à un bi-processeur bi-core (chacun) avec 4 Go de RAM, ça va me faire gagner du temps pour mes simulations d'agents intelligents ! :)
 
Lain a dit:
- final cut pro "dis tonton, j'en ai marre que le disque dur rame chaque fois que j'inscrute mes gingles en HD 1080p " "tiens neveu vla 16go, et fermes ta gueule, je peux pas en mettre plus"

- "docteur, et c'est quand j'ai ouvert subethaedit après avoir exécuté final cut pro avec motion et compressor sur un fichier qt de 3go (mon film de vacance de 5h) , office, camino, safari, omnigraffle, delicious library, le dernier teaser chicken little en 1080p, écouté un podcast sur itunes et lancé 'make' de mozilla que le disque dur a gratté " "-heu vous fermez les applications parfois ? " "-hein ?" "-bon, on va vous mettre 16go, ca sera 11 000 euros, vous payez à ma secrétaire"

- "hé Gérard, tu verrais doom 6, pinaize sa mère, avec les textures 1080p, ca arrache donf sur mon écran fin de 60" , bon par contre, j'ai du acheter 16go de ram sinon ca swappait, les 4go de la geforce plutonium nitro XGT++ ne suffisait plus..." "-heu on est en 2005, man"

- "hééé Christine ! viens voir, sur le nouveau mac avec 16go de ram je peux scroller tout le samplage du code génétique du babouin en qq secon... merdes ca swappe, attends"

Mort de rire. Coupdbool effectué...:love:
 
molgow a dit:
En ce moment, j'ai accès à un bi-processeur bi-core (chacun) avec 4 Go de RAM, ça va me faire gagner du temps pour mes simulations d'agents intelligents ! :)

Quel genre ? tu bosses dans le développement de l'IA ?
 
  • J’aime
Réactions: molgow
molgow a dit:
16 Go de RAM c'est aussi bien utile pour faire des simulations complexes.

En ce moment, j'ai accès à un bi-processeur bi-core (chacun) avec 4 Go de RAM, ça va me faire gagner du temps pour mes simulations d'agents intelligents ! :)

En effet, il peut y avoir de grosse piles dans les applis d'IA.
Un simple alpha beta peut être très groumand en mémoire.
Pour les algos génétiques, ça peut être en effet nécessaire car l'utilisation disque ralenti fortement les perfs en cas de manque de RAM.

Et pareil pour les bases de données en effet, certaines peuvent être mises en mémoire. Cependant, on considère en général qu'on met 20% de la base en mémoire. Dans la pratique, on note que, en général, 80% des requêtes accèdent à 20% de données. Ce sont ces 20% qu'il faut mettre en RAM.
Ca signifie que la base de données contient quand même 5*16Go au total!!! Soir 80Go de données en base!!! Ca fait énorme quand même...
 
SuperCed a dit:
(...) Dans la pratique, on note que, en général, 80% des requêtes accèdent à 20% de données. (...)
J'ai entendu cette phrase plusieurs fois, et je pense globalement qu'elle est exacte. Mais il faut se garder d'en conclure quoi que soit de général. Parce que les 20% de requêtes restantes risquent bien d'accéder aux 80 autres % de données, et de vider de façon régulière la mémoire des 20% de données visées par les 80% de requêtes.

J'ai pu faire cette malheureuse expérience sur des PC dont la mémoire était trop petite. Une évaluation sur une petite quantité de données avait indiqué, par extrapolation, des temps de traitement de l'ordre de 5 minutes. Quand la base de données a été bien remplie, on est arrivé à des temps de traitement dépassant la dizaine d'heures (quand le PC ne plantait pas par manque d'espace disque lors d'une transaction... c'était avec MS Access sous Windows NT 4... oui, je sais... :( ) ! Tout est rentré dans l'ordre quand la quantité de mémoire du PC a été quadruplée.

Dans certains cas, 16 Go, ça peut être bien pour traiter des bases de données... de 8 Go. Parce qu'après, il faut aussi les traiter, ces données. Et ce n'est pas le SGBD qui le fera.
 
et imagenez ça dans un portable: conso batterie divisée par 10... et prix multiplié par 100 :D

sinon, dès que j'ai les moyen, je me le paye ce X-serve. (d'ici là, il aura peut être 64 GO de Ram et 2x8 cores :eek: )