News Asus EAH3850 Trinity mit drei 3850-GPUs

Ich finde es ziemlich arm mit diesen vielen gpus die sollen sich mal lieber auf die fertigung neuer leistungfähiger gpus konzentrieren und nicht sowas.... es wird viel zu viel energie verschwendet.@the moment wird nur noch mit alten sachen um sich geworfen (bei Ati und Nvidia) was ist nur los ???Man will so viel wie möglich geld mit "alter" nicht eficienter technik machen und so viel strom wie möglich verbrauchen das scheit wohl der trennt zu sein Mfg:freak:
 
hab ich das richtig verstanden 3x 3850 256 ? wenn ja sinnlos , wär nur bei der 512er intressant das wohl für höhere auflösungen vorgesehen is oder viel aa/af für beides is die 256er bissl knapp
 
Livven schrieb:
Warum gibt es bei GPUs eigentlich keine zwei oder vier Kerne in einem Die (oder wie das auch immer heißt), wie das bei CPUs üblich ist? Nur weil man ein schönes Board zur Verfügung hat, wo man all die Kerne drauftun kann, aber solange sich dieser Umstand nicht ändert werde ich mir auch kein Multi-GPU System kaufen.

Das hat man schon lange bei Grafikkarten. Diese "Kerne" heißen aber dort Shaderprozessoren. Also hat eine Karte mit 128 von diesen 128 Kerne.

Für mich ist es momentan auch sehr sinnfrei. Sieht man ja an der X2 und GX2. Kaum ein Leistungsvorteil vorallem zu Einzelkarte wie der 8800 Ultra und der 3850. Außerdem haben die keine Mikroruckler.
 
Zuletzt bearbeitet:
Ich finde es interessant, weil man offenbar recht einfach die Grafikkarte aufrüsten kann, wenn die Leistung nicht mehr ganz reicht.
 
Ob dies "Sinnfrei" ist wage ich zu bezweifeln, da es Aufschluss darüber gibt, was die heutige Technik instande ist, zuleisten und was man mit ihr alles anfangen kann. Desweiteren profitieren wir doch nur durch solche Spielereien und KONZEPTE einiger Hersteller.
 
Zuletzt bearbeitet:
früher oder später kommen für GPUs doch bestimmt auch "mainboards" sodass man nicht mehr die komplette Grafikkarte Tauschen muss sondern nur einzelne teile.

oder kommt es da zu schwerwiegenden Problemen?
 
e-Laurin schrieb:
Ich finde es interessant, weil man offenbar recht einfach die Grafikkarte aufrüsten kann, wenn die Leistung nicht mehr ganz reicht.
Kann man das nicht jetzt schon? :freak:

früher oder später kommen für GPUs doch bestimmt auch "mainboards" sodass man nicht mehr die komplette Grafikkarte Tauschen muss sondern nur einzelne teile.
oder kommt es da zu schwerwiegenden Problemen?
Naja, gesockelte Systeme sind eigentlich eher schlecht, weil die mehr Platz benötigen als direkt verlötete Komponenten (vergleich mal den Platz, den 8 RAM-Chips auf einer GraKa brauchen mit dem, den ein DDR2-Riegel samt Sockel braucht) und auch teurer in der Herstellung sein dürften (RAM-Chips drauflöten geht in einem Schritt vollautomatisch, RAM-Sockel sind da etwas mehr Aufwand).
 
Hoffentlich kommt diese "Karte" auch wirklich auf den Markt. Obwohl die RAM-Bestückung am Sinn des ganzen zweifeln lässt.
Sollte es je auf den Markt kommen, hoffe ich CB wird einen ausführlichen Test durchführen...

MXM-Steckplätze am Desktop MoBo wären meiner Meinung nach einmal etwas sinnvoll(er)es. Kühler wird mit MB mitgeliefert. "Tuning-Kühler folgen dann eh in kürze... am besten "normt" man das noch als ATX-MXM... natürlich vollkompatibel zum Laptop MXM.

MfG, Thomas
 
Zuletzt bearbeitet:
Was will man mit MXM auf Desktoprechnern? Ich sehe da keine Vorteile zur normalen PCIe-Bauform...
 
Woher habt ihr die 256mb ?

Viele andere Newsseiten haben diese Zahl mitlerweile schon widerrufen, weil sie
a) ohnehin nirgends bestätigt wird
b) keinerlei Sinn macht


Frag mich auch warum ein mittleres MXM Modul abgebildet wird und keines der Größe die auch tatsächlich verbaut wird.
Ich dachte im ersten Moment wirklich das wäre das hier verwendete und wollte nach den verbauten Speicherchips googlen :)
 
Realsmasher schrieb:
Woher habt ihr die 256mb ?

Viele andere Newsseiten haben diese Zahl mitlerweile schon widerrufen, weil sie
a) ohnehin nirgends bestätigt wird
b) keinerlei Sinn macht


Frag mich auch warum ein mittleres MXM Modul abgebildet wird und keines der Größe die auch tatsächlich verbaut wird.
Ich dachte im ersten Moment wirklich das wäre das hier verwendete und wollte nach den verbauten Speicherchips googlen :)

Hm hast Recht. Hab auch nochmal gegoogled, einer schreibt 256, einer 512, einer gar nichts. Alles einfach nur Spekulationen, weil es solch ein MXM-Modul einfach mal noch gar nicht offiziell gibt. Ist halt wie Kaffeesatz lesen, hab unseren satz mal entsprechend angepasst^^

Und das MXM-Modul ist das schnellste, was ATi aktuell hat. Es soll die Größe zeigen und ist für Leute gedacht, die nicht wissen was genau das eigentlich ist, denn nicht jeder CB-Leser ist ein Pro. Für den Größenvergleich auf der Karte eignet es sich außerdem.
 
Aktuell warte ich am meisten auf die Ankündigung (besonders von ATi), dass man demnächst DualCore bzw. QuadCore GPUs herstellen wird und das in 45 nm oder so, dann verlieren die ganzen SLi-Karten und alle daraus resultierenden Experimente ihre Daseinsberechtigung und es brechen hoffentlich endlich Zeiten wie bei den CPUs an, bei denen es nicht mehr so wichtig ist wieviel Shader oder wasweißich auf der Platine stecken, weil einfach genug Power für alles da ist was so gerendert werden soll.
 
Auf jeden Fall ein Schritt in die richtige Richtung. Nichts führt an Multicore vorbei, hat man ja auch bei den CPUs gesehen.
 
Ich Frage mich manchmal ob sich manche Leute hier sich Zeit nehmen um zu überlegen weswegen die GraKa Hersteller im vergleich zur CPU Hersteller immer Leistungshungrigere GraKas auf dem Markt werfen!?

Die Anforderungen an der GraKas sind im vergleich zur CPU's viel höher.
Wenn Ihr euch mal die Leistungssprünge in denn letzten Jahren so ansieht, zb. seit denn Pentium 4 VS. Athlon XP's bis Heute sowie bei den Radeon 8500 VS. GeForce 3 Ti bis Heute GF9 VS. RHD38XX dann sieht Ihr wie viel Leistung die GraKas im vergleich zum CPUs steigt.

Bei denn GeForce 7900GTX auf GF8800GTX stieg die Leistung fast doppelt an, aber von denn Pentium D (Dual Core) auf Core 2 Duo (Kein Quad) sind die Leistung nicht 200% gestiegen (Anfangs).

Aber abgesehen von denn HighEnd GraKas sieht man das die Hersteller sich schon bewusst machen was die Leistungen Pro Watt angeht.
Ein GeForce 9600GT verbraucht auch recht wenig für Ihre Leistung, und auch ein GeForce 8600er sind schneller als Ihre GF7600 vorgänger bei wenniger Stromverbrauch.

Was ich damit sagen will, Leistung braucht Zeit, aber Leistung zu erzielen ohne genug Zeit zu haben hat halt die Folge das der Stromverbrauch steigt.

Und was die Dual GPU GraKas angeht ist eine Welt für sich.
Unproportional Unefizient im vergleich zur Single GPU's und dienen doch sehr denn Prestige bereich. Niemand klagt an eine BMW M5 für seine Leistung und verbrauch, aber viele würden klagen wenn der BMW M5 zuwenig Leistung hätten, da es sich schon um ein Prestige Sportwagen angehört die nicht Jedermann/Frau sichs leisten kann.

Ein GF8800GTX damals bei der Release gilt dasselbe, und es Handelt sich auch um ein Prestige Stück, genau wie die Core 2 Duo Extrem bzw. Core 2 Quad Extrem.
 
Interessantes Konzept aber warum auch nicht es gibts ja auch bald Triple Core CPUs warum also keine Triple GPU Karte? Hoffentlich es es keine Machbarkeitsstudie und kommt bald in den Handel denn sinnvoll ist das Konzept auf jeden Fall.
 
Zurück
Oben