Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Asus EAH3850 Trinity mit drei 3850-GPUs
- Ersteller Volker
- Erstellt am
- Zur News: Asus EAH3850 Trinity mit drei 3850-GPUs
Micha83411
Commander
- Registriert
- Okt. 2006
- Beiträge
- 2.357
Ich finde es ziemlich arm mit diesen vielen gpus die sollen sich mal lieber auf die fertigung neuer leistungfähiger gpus konzentrieren und nicht sowas.... es wird viel zu viel energie verschwendet.@the moment wird nur noch mit alten sachen um sich geworfen (bei Ati und Nvidia) was ist nur los ???Man will so viel wie möglich geld mit "alter" nicht eficienter technik machen und so viel strom wie möglich verbrauchen das scheit wohl der trennt zu sein Mfg
Floletni
Commander
- Registriert
- Sep. 2007
- Beiträge
- 2.327
Livven schrieb:Warum gibt es bei GPUs eigentlich keine zwei oder vier Kerne in einem Die (oder wie das auch immer heißt), wie das bei CPUs üblich ist? Nur weil man ein schönes Board zur Verfügung hat, wo man all die Kerne drauftun kann, aber solange sich dieser Umstand nicht ändert werde ich mir auch kein Multi-GPU System kaufen.
Das hat man schon lange bei Grafikkarten. Diese "Kerne" heißen aber dort Shaderprozessoren. Also hat eine Karte mit 128 von diesen 128 Kerne.
Für mich ist es momentan auch sehr sinnfrei. Sieht man ja an der X2 und GX2. Kaum ein Leistungsvorteil vorallem zu Einzelkarte wie der 8800 Ultra und der 3850. Außerdem haben die keine Mikroruckler.
Zuletzt bearbeitet:
DKTwist
Lt. Junior Grade
- Registriert
- Feb. 2008
- Beiträge
- 285
Ob dies "Sinnfrei" ist wage ich zu bezweifeln, da es Aufschluss darüber gibt, was die heutige Technik instande ist, zuleisten und was man mit ihr alles anfangen kann. Desweiteren profitieren wir doch nur durch solche Spielereien und KONZEPTE einiger Hersteller.
Zuletzt bearbeitet:
C
Creshal
Gast
Kann man das nicht jetzt schon?e-Laurin schrieb:Ich finde es interessant, weil man offenbar recht einfach die Grafikkarte aufrüsten kann, wenn die Leistung nicht mehr ganz reicht.
Naja, gesockelte Systeme sind eigentlich eher schlecht, weil die mehr Platz benötigen als direkt verlötete Komponenten (vergleich mal den Platz, den 8 RAM-Chips auf einer GraKa brauchen mit dem, den ein DDR2-Riegel samt Sockel braucht) und auch teurer in der Herstellung sein dürften (RAM-Chips drauflöten geht in einem Schritt vollautomatisch, RAM-Sockel sind da etwas mehr Aufwand).früher oder später kommen für GPUs doch bestimmt auch "mainboards" sodass man nicht mehr die komplette Grafikkarte Tauschen muss sondern nur einzelne teile.
oder kommt es da zu schwerwiegenden Problemen?
HighTech-Freak
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.157
Hoffentlich kommt diese "Karte" auch wirklich auf den Markt. Obwohl die RAM-Bestückung am Sinn des ganzen zweifeln lässt.
Sollte es je auf den Markt kommen, hoffe ich CB wird einen ausführlichen Test durchführen...
MXM-Steckplätze am Desktop MoBo wären meiner Meinung nach einmal etwas sinnvoll(er)es. Kühler wird mit MB mitgeliefert. "Tuning-Kühler folgen dann eh in kürze... am besten "normt" man das noch als ATX-MXM... natürlich vollkompatibel zum Laptop MXM.
MfG, Thomas
Sollte es je auf den Markt kommen, hoffe ich CB wird einen ausführlichen Test durchführen...
MXM-Steckplätze am Desktop MoBo wären meiner Meinung nach einmal etwas sinnvoll(er)es. Kühler wird mit MB mitgeliefert. "Tuning-Kühler folgen dann eh in kürze... am besten "normt" man das noch als ATX-MXM... natürlich vollkompatibel zum Laptop MXM.
MfG, Thomas
Zuletzt bearbeitet:
C
Creshal
Gast
Was will man mit MXM auf Desktoprechnern? Ich sehe da keine Vorteile zur normalen PCIe-Bauform...
Tricker2000
Cadet 2nd Year
- Registriert
- März 2007
- Beiträge
- 28
unnötige Quote, bitte Forenregeln beachten!
der stromverbrauch ist geringer da mobile GPUs verbaut sind
Zuletzt bearbeitet von einem Moderator:
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
Woher habt ihr die 256mb ?
Viele andere Newsseiten haben diese Zahl mitlerweile schon widerrufen, weil sie
a) ohnehin nirgends bestätigt wird
b) keinerlei Sinn macht
Frag mich auch warum ein mittleres MXM Modul abgebildet wird und keines der Größe die auch tatsächlich verbaut wird.
Ich dachte im ersten Moment wirklich das wäre das hier verwendete und wollte nach den verbauten Speicherchips googlen
Viele andere Newsseiten haben diese Zahl mitlerweile schon widerrufen, weil sie
a) ohnehin nirgends bestätigt wird
b) keinerlei Sinn macht
Frag mich auch warum ein mittleres MXM Modul abgebildet wird und keines der Größe die auch tatsächlich verbaut wird.
Ich dachte im ersten Moment wirklich das wäre das hier verwendete und wollte nach den verbauten Speicherchips googlen
C
Creshal
Gast
Und? Das kann man auch auf normalen PCIe-Platinen realisieren, dafür brauchts kein MXM...Tricker2000 schrieb:der stromverbrauch ist geringer da mobile GPUs verbaut sind
- Registriert
- Juni 2001
- Beiträge
- 18.812
Realsmasher schrieb:Woher habt ihr die 256mb ?
Viele andere Newsseiten haben diese Zahl mitlerweile schon widerrufen, weil sie
a) ohnehin nirgends bestätigt wird
b) keinerlei Sinn macht
Frag mich auch warum ein mittleres MXM Modul abgebildet wird und keines der Größe die auch tatsächlich verbaut wird.
Ich dachte im ersten Moment wirklich das wäre das hier verwendete und wollte nach den verbauten Speicherchips googlen
Hm hast Recht. Hab auch nochmal gegoogled, einer schreibt 256, einer 512, einer gar nichts. Alles einfach nur Spekulationen, weil es solch ein MXM-Modul einfach mal noch gar nicht offiziell gibt. Ist halt wie Kaffeesatz lesen, hab unseren satz mal entsprechend angepasst^^
Und das MXM-Modul ist das schnellste, was ATi aktuell hat. Es soll die Größe zeigen und ist für Leute gedacht, die nicht wissen was genau das eigentlich ist, denn nicht jeder CB-Leser ist ein Pro. Für den Größenvergleich auf der Karte eignet es sich außerdem.
nightporter
Banned
- Registriert
- Apr. 2007
- Beiträge
- 286
hoffentlich wird sich das endlich durchsetzen.denke aber das da atinvidia vor sind
GDC
Lieutenant
- Registriert
- Apr. 2001
- Beiträge
- 662
Aktuell warte ich am meisten auf die Ankündigung (besonders von ATi), dass man demnächst DualCore bzw. QuadCore GPUs herstellen wird und das in 45 nm oder so, dann verlieren die ganzen SLi-Karten und alle daraus resultierenden Experimente ihre Daseinsberechtigung und es brechen hoffentlich endlich Zeiten wie bei den CPUs an, bei denen es nicht mehr so wichtig ist wieviel Shader oder wasweißich auf der Platine stecken, weil einfach genug Power für alles da ist was so gerendert werden soll.
Project-X
Commodore
- Registriert
- Okt. 2003
- Beiträge
- 5.014
Ich Frage mich manchmal ob sich manche Leute hier sich Zeit nehmen um zu überlegen weswegen die GraKa Hersteller im vergleich zur CPU Hersteller immer Leistungshungrigere GraKas auf dem Markt werfen!?
Die Anforderungen an der GraKas sind im vergleich zur CPU's viel höher.
Wenn Ihr euch mal die Leistungssprünge in denn letzten Jahren so ansieht, zb. seit denn Pentium 4 VS. Athlon XP's bis Heute sowie bei den Radeon 8500 VS. GeForce 3 Ti bis Heute GF9 VS. RHD38XX dann sieht Ihr wie viel Leistung die GraKas im vergleich zum CPUs steigt.
Bei denn GeForce 7900GTX auf GF8800GTX stieg die Leistung fast doppelt an, aber von denn Pentium D (Dual Core) auf Core 2 Duo (Kein Quad) sind die Leistung nicht 200% gestiegen (Anfangs).
Aber abgesehen von denn HighEnd GraKas sieht man das die Hersteller sich schon bewusst machen was die Leistungen Pro Watt angeht.
Ein GeForce 9600GT verbraucht auch recht wenig für Ihre Leistung, und auch ein GeForce 8600er sind schneller als Ihre GF7600 vorgänger bei wenniger Stromverbrauch.
Was ich damit sagen will, Leistung braucht Zeit, aber Leistung zu erzielen ohne genug Zeit zu haben hat halt die Folge das der Stromverbrauch steigt.
Und was die Dual GPU GraKas angeht ist eine Welt für sich.
Unproportional Unefizient im vergleich zur Single GPU's und dienen doch sehr denn Prestige bereich. Niemand klagt an eine BMW M5 für seine Leistung und verbrauch, aber viele würden klagen wenn der BMW M5 zuwenig Leistung hätten, da es sich schon um ein Prestige Sportwagen angehört die nicht Jedermann/Frau sichs leisten kann.
Ein GF8800GTX damals bei der Release gilt dasselbe, und es Handelt sich auch um ein Prestige Stück, genau wie die Core 2 Duo Extrem bzw. Core 2 Quad Extrem.
Die Anforderungen an der GraKas sind im vergleich zur CPU's viel höher.
Wenn Ihr euch mal die Leistungssprünge in denn letzten Jahren so ansieht, zb. seit denn Pentium 4 VS. Athlon XP's bis Heute sowie bei den Radeon 8500 VS. GeForce 3 Ti bis Heute GF9 VS. RHD38XX dann sieht Ihr wie viel Leistung die GraKas im vergleich zum CPUs steigt.
Bei denn GeForce 7900GTX auf GF8800GTX stieg die Leistung fast doppelt an, aber von denn Pentium D (Dual Core) auf Core 2 Duo (Kein Quad) sind die Leistung nicht 200% gestiegen (Anfangs).
Aber abgesehen von denn HighEnd GraKas sieht man das die Hersteller sich schon bewusst machen was die Leistungen Pro Watt angeht.
Ein GeForce 9600GT verbraucht auch recht wenig für Ihre Leistung, und auch ein GeForce 8600er sind schneller als Ihre GF7600 vorgänger bei wenniger Stromverbrauch.
Was ich damit sagen will, Leistung braucht Zeit, aber Leistung zu erzielen ohne genug Zeit zu haben hat halt die Folge das der Stromverbrauch steigt.
Und was die Dual GPU GraKas angeht ist eine Welt für sich.
Unproportional Unefizient im vergleich zur Single GPU's und dienen doch sehr denn Prestige bereich. Niemand klagt an eine BMW M5 für seine Leistung und verbrauch, aber viele würden klagen wenn der BMW M5 zuwenig Leistung hätten, da es sich schon um ein Prestige Sportwagen angehört die nicht Jedermann/Frau sichs leisten kann.
Ein GF8800GTX damals bei der Release gilt dasselbe, und es Handelt sich auch um ein Prestige Stück, genau wie die Core 2 Duo Extrem bzw. Core 2 Quad Extrem.
Tomy_The_Kid
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 218
Interessantes Konzept aber warum auch nicht es gibts ja auch bald Triple Core CPUs warum also keine Triple GPU Karte? Hoffentlich es es keine Machbarkeitsstudie und kommt bald in den Handel denn sinnvoll ist das Konzept auf jeden Fall.
Ähnliche Themen
- Antworten
- 63
- Aufrufe
- 6.274
O
- Antworten
- 0
- Aufrufe
- 2.539
O