Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Alle Details zu ATis Radeon 5000er Serie
- Ersteller Moros
- Erstellt am
- Zur News: Alle Details zu ATis Radeon 5000er Serie
JimNastik schrieb:Was der 5870 mMn fehlt ist eine 512bit Speicheranbindung, verstehe nicht wie man bei den Eckdaten noch auf 256bit setzt...
Die haben wahrscheinlich ein bisschen mehr ahnung als du.256 bit hier 256 bit da.Keiner hat ahnung darüber.
Ich habe immer noch die Befürchtung, das zumindestens die 5850 an ihrem 256 Bit SI verhungert und sich bei der 1920er Auflösung kaum von den bisherigen schnellsten ( Single-Chip ) Karten wird absetzen können.
Vermutlich ist das nur eine Übergangslösung bis 2,4-2,5 GHz GDDR5 Ram bezahlbarer Standard ist.
Eher glaube ich mittelfristig an eine auf 1 GHZ geprügelte 5890 mit 2,6-2,8 GHz Speichertakt.
Prinzipiell verstehe ich aber die Entscheidung, ein 512 bit breites SI mit entsprechend teuren Boards geht nicht in der Preisklasse wo man sich letztlich hinlegen wird : 150-200 €, darüber die wahrscheinlich extrem teuren GT300 Karten die nur ein kleines Marktsegment bedienen.
Ich denke mal heute in einem Jahr kaufe ich mir für 150,- € eine 5870 und lache über alle Käuffer der ersten Stunde.
Bekloppt finde ich die Kritik am Stromverbrauch, von wegen kein eigenes Kraftwerk und dergleichen blöde Sprüche.
Wenn ein Vollpreisspiel für 45,- Euro mich für 45 Stunden beschäftigt kostet mich das ein Euro pro Stunde. Verballert die Grafikkarte 250 Watt um das Spiel auf den Bildschirm zu bringen, kommen noch einmal FÜNF!!! Cent an Stromkosten dazu.
Da ist jede Diskussion über den Verbrauch unter Last völlig sinnbefreiter Blödsinn.
Interessant ist der Verbrauch im Idle.
Und da sind 27 Watt für ein 2,1 Mrd Transistor Monster eine große Leistung der Entwickler.
Vermutlich ist das nur eine Übergangslösung bis 2,4-2,5 GHz GDDR5 Ram bezahlbarer Standard ist.
Eher glaube ich mittelfristig an eine auf 1 GHZ geprügelte 5890 mit 2,6-2,8 GHz Speichertakt.
Prinzipiell verstehe ich aber die Entscheidung, ein 512 bit breites SI mit entsprechend teuren Boards geht nicht in der Preisklasse wo man sich letztlich hinlegen wird : 150-200 €, darüber die wahrscheinlich extrem teuren GT300 Karten die nur ein kleines Marktsegment bedienen.
Ich denke mal heute in einem Jahr kaufe ich mir für 150,- € eine 5870 und lache über alle Käuffer der ersten Stunde.
Bekloppt finde ich die Kritik am Stromverbrauch, von wegen kein eigenes Kraftwerk und dergleichen blöde Sprüche.
Wenn ein Vollpreisspiel für 45,- Euro mich für 45 Stunden beschäftigt kostet mich das ein Euro pro Stunde. Verballert die Grafikkarte 250 Watt um das Spiel auf den Bildschirm zu bringen, kommen noch einmal FÜNF!!! Cent an Stromkosten dazu.
Da ist jede Diskussion über den Verbrauch unter Last völlig sinnbefreiter Blödsinn.
Interessant ist der Verbrauch im Idle.
Und da sind 27 Watt für ein 2,1 Mrd Transistor Monster eine große Leistung der Entwickler.
- Registriert
- Juni 2008
- Beiträge
- 1.920
zu hohe stromaufnahme...schade
Bullet Tooth
Commander
- Registriert
- Mai 2008
- Beiträge
- 2.980
XamBonX
Commander
- Registriert
- Nov. 2002
- Beiträge
- 2.972
Sagt mal, wollen die mich verarschen, oder was ist los?
Während Nvidia jenseits der 400er-Bit Marke arbeitet, dümpelt AMD bei 256Bit rum.
Was soll der Schwachfug eigentlich? Zu teuer sonst? Nicht fähig mehr als 256 zu produzieren, oder sind die Grakas so unfähig und packen es nicht?
Während Nvidia jenseits der 400er-Bit Marke arbeitet, dümpelt AMD bei 256Bit rum.
Was soll der Schwachfug eigentlich? Zu teuer sonst? Nicht fähig mehr als 256 zu produzieren, oder sind die Grakas so unfähig und packen es nicht?
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Ok die GTX 285 hat 158,9GB/s die 5870 153,6 GB/s man kann also schon verstehen warum es Leute gibt die das kleine SI kritisieren. Hätte auch eher mit 384 Bit SI gerechnet. Normalerweise skalieren ja ATI Karten recht gut mit der Speicherbandbreite, das könnte sich aber bei der HD 5000 geändert haben und man braucht einfach weniger Durchsatz. Man muss wie immer abwarten, dann wird man schon sehen was passiert wenn man den Speicher OC.
Am besten Erwartungen runter schrauben dann wird man später nicht so arg enttäuscht und kann nur positiv überrascht werden.
Am besten Erwartungen runter schrauben dann wird man später nicht so arg enttäuscht und kann nur positiv überrascht werden.
Masterchief79
Captain
- Registriert
- Juni 2009
- Beiträge
- 3.246
@Bullet Tooth: Hab ich ein paar Seiten vorher auch schon gepostet
Steht auch schon hier auf CB zum Download bereit
Mal ne andere Frage:
Wenn ich mir ne HD5870x2 in den USA bestelle für 599$, und die hier nach D liefern lasse, hab ich dann was gewonnen? Die Karte wird ja zum Launch bestimmt auch mind. 450-500€ kosten...
599$ sind ca. 410€. Wie siehts da mit Steuern, Zoll etc aus?
Steht auch schon hier auf CB zum Download bereit
Mal ne andere Frage:
Wenn ich mir ne HD5870x2 in den USA bestelle für 599$, und die hier nach D liefern lasse, hab ich dann was gewonnen? Die Karte wird ja zum Launch bestimmt auch mind. 450-500€ kosten...
599$ sind ca. 410€. Wie siehts da mit Steuern, Zoll etc aus?
Dafür hat nVidia erst GDDR3 Speicher was als genauso großes Manko betrachtet werden kann. 256Bit GDDR5 sind 512Bit GDDR3. Wenn nVidia jetzt allerdings nachzieht mit GDDR5 dann siehts wohl düster aus...Sagt mal, wollen die mich verarschen, oder was ist los?
Während Nvidia jenseits der 400er-Bit Marke arbeitet, dümpelt AMD bei 256Bit rum.
Was soll der Schwachfug eigentlich? Zu teuer sonst? Nicht fähig mehr als 256 zu produzieren, oder sind die Grakas so unfähig und packen es nicht?
Zuletzt bearbeitet:
XamBonX schrieb:Sagt mal, wollen die mich verarschen, oder was ist los?
Während Nvidia jenseits der 400er-Bit Marke arbeitet, dümpelt AMD bei 256Bit rum.
Was soll der Schwachfug eigentlich? Zu teuer sonst? Nicht fähig mehr als 256 zu produzieren, oder sind die Grakas so unfähig und packen es nicht?
Hier ist nur einer der keine ahnung hat und das kann nach so einer aussage nur du sein!
Für was das SI unnötig nach oben setzen wenn die 256bit doch ausreichen?Macht absolut keinen Sinn.Und ein erhöter SI macht dir eine "langsame" grakka auch nicht schneller nur weil der SI erhöht wurde....
MFG XeonKing©!!!
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Perfektes Beispiel die legendäre HD 2900XT mit 512bit SIFür was das SI unnötig nach oben setzen wenn die 256bit doch ausreichen?Macht absolut keinen Sinn.Und ein erhöter SI macht dir eine "langsame" grakka auch nicht schneller nur weil der SI erhöht wurde....
GT 300 hat 512bit + GDDR5Wenn nVidia jetzt allerdings nachzieht mit GDDR5 dann siehts wohl düster aus...
Übersoldier75
Lieutenant
- Registriert
- März 2008
- Beiträge
- 814
Also hab mir jetzt nicht alles durchgelesen, aber von den Shaders hab ich mir jetzt mehr erwartet. HD3870=320 Shaders / HD4870=800 also das 2,5 fache, wobei die Rops bei 16 geblieben sind, HD5870=1600 Shaders und doppelte Rops, also bei doppelten Shadern, mindestens 50% mehr als ne Hd4870, jetzt hat die aber doppelte Rops, also 32, wie kommt man jetzt auf die Idee, dass die Karte nur 50% schneller als ne GTX285 ist, also rein rechnerrich, würd ich sagen 65-75% schneller, und mit 2GB-Speicher in hohen Auflösungen bestimmt 80-90% schneller, von den TMUS ganz zu schweigen.
Ich schätz mal der Schritt ist so gross wie von HD3870 zu ner HD4870, leistungsmässig!
Ich schätz mal der Schritt ist so gross wie von HD3870 zu ner HD4870, leistungsmässig!
stonix015
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.773
wenn die 5850 unter 200€ kostet, hol ich mir sie nach einem 4tel jahr, dann kostet sie noch 170€
Ihr bringt mich wahrscheinlich um wenn ich sage, dass ich einen 5000+ besitze,
aber nun gut, er war bislang außer bei gta4, noch nie voll ausgelastet, und so wichtig ist der prozessor eigentlich bei spielen nicht.
doom3 hatte ich auch früher mit ner 9800pro auf nem 1000er gezockt, es wird schon iwie gehen
abgesehen davon wird denke ich mal bei dx11 der prozessor stark entlastet werden, und für dx10 und dx9 apps ist er so oder so schnell genug
Ihr bringt mich wahrscheinlich um wenn ich sage, dass ich einen 5000+ besitze,
aber nun gut, er war bislang außer bei gta4, noch nie voll ausgelastet, und so wichtig ist der prozessor eigentlich bei spielen nicht.
doom3 hatte ich auch früher mit ner 9800pro auf nem 1000er gezockt, es wird schon iwie gehen
abgesehen davon wird denke ich mal bei dx11 der prozessor stark entlastet werden, und für dx10 und dx9 apps ist er so oder so schnell genug
Masterchief79
Captain
- Registriert
- Juni 2009
- Beiträge
- 3.246
Kasmopaya schrieb:GT 300 hat 512bit + GDDR5
Woher nimmste die Info? Ich denke das wird dann kritisch für ATI... Oder seh ich das falsch?
Masterchief79 schrieb:Wenn ich mir ne HD5870x2 in den USA bestelle für 599$, und die hier nach D liefern lasse, hab ich dann was gewonnen? Die Karte wird ja zum Launch bestimmt auch mind. 450-500€ kosten...
599$ sind ca. 410€. Wie siehts da mit Steuern, Zoll etc aus?
TAX (Steuer, je nach US-Bundesstaat unterschiedlich) + 2% Zoll + 19% Einfuhrumsatzsteuer. Kannst dir ja ausrechnen was dabei rauskommt
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
Thema 256bit Interface: ATI will sicher auch Spielraum im Preiskampf haben. Und da ist vor allem ein 512bit Interface eben ein Hindernis. Und wenn der Chip nicht auf so viel Bandbreite ausgelegt ist, ists nochmal ein Nachteil.
Hat man prima bei der Geforce 5900 gesehen. 256bit Interface konnte die Karte einfach nicht richtig befeuern, lächerliche 10% mehr Performance.
Außerdem wird man wohl 2 Monate später die X2-Variante als High End hinterher schieben.
Hat man prima bei der Geforce 5900 gesehen. 256bit Interface konnte die Karte einfach nicht richtig befeuern, lächerliche 10% mehr Performance.
Außerdem wird man wohl 2 Monate später die X2-Variante als High End hinterher schieben.
Bullet Tooth
Commander
- Registriert
- Mai 2008
- Beiträge
- 2.980
nVidia muss ja bei der Presentation der HD5870 und deren Featuers richtig muffensausen bekommen haben wenn man die folgende Nachricht liest.
President and CEO of NVIDIA Corp. (NVDA) Jen Hsun Huang sells 260,475 shares of NVDA on 09/11/2009 at an average price of $16.07 a share.
Da verlässt den Captain der glaube wohl zuerst??
@Masterchief79: oh da habe ich wohl was verpennt.
President and CEO of NVIDIA Corp. (NVDA) Jen Hsun Huang sells 260,475 shares of NVDA on 09/11/2009 at an average price of $16.07 a share.
Da verlässt den Captain der glaube wohl zuerst??
@Masterchief79: oh da habe ich wohl was verpennt.
Zuletzt bearbeitet:
Woher nimmste die Info? Ich denke das wird dann kritisch für ATI... Oder seh ich das falsch?.
Kannst du überall nachlesen...und dass der GT300 schneller wird als die 5er ist eh klar. Aber erstmal muss Nvidia die Dinger rausbringen..glaub ehrlich gesagt nicht, dass es in diesem Jahr noch klappt...und zweitens werden die Dinger schweineteuer sein..sowohl in der Produktion als auch nachher im Verkaufspreis...
also kritisch sieht da für ATI nix aus..
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Hat aber gereicht um mit der 9700 und 9800 mitzuhalten + bessere Treiber= sehr gute Grafikkarte. Hatte die Karte sehr lange und war rundum zufrieden, obwohl ich immer sehr hohe Ansprüche bei der Leistung habe. Denke das es vorallem an den Games lag, damals brauchte man einfach nicht so viel Leistung.Hat man prima bei der Geforce 5900 gesehen. 256bit Interface konnte die Karte einfach nicht richtig befeuern, lächerliche 10% mehr Performance.
http://www.hardware-infos.com/grafikkarten_charts.php
Woher nimmste die Info? Ich denke das wird dann kritisch für ATI... Oder seh ich das falsch?
http://www.pcgameshardware.de/aid,6...nheiten-der-Geforce-GTX-380/Grafikkarte/News/Hardware-info.com schätzt die Rechenleistung der neuen Karten auf sage und schreibe 2.457 Gigaflops. Es handele sich dabei zwar nicht mehr um die klassischen SIMD-Einheiten, sondern um MIMD-ähnliche Einheiten, welche flexibler und effizienter arbeiten sollten - der rein quantitative Vergleich bescheinigt dem G300 eine 163 prozentige Leistungssteigerung gegenüber dem G200.
Jetzt stellt euch mal das ganze mit einer GTX 395 2x 2048MB GDDR5 vor. (am besten ohne µRuckler)
Also im Gesamtpaket wenns um die reine Leistung geht könnte es eng werden für ATI, aber es geht hoffentlich NIE nur um FPS. Idle Stromsparen, Preis/Leistung alles so Punkte die man nicht außer Acht lassen sollte.
Eine GT 300 mit 1GB Vram würde ich zb. niemals kaufen...
Masterchief79
Captain
- Registriert
- Juni 2009
- Beiträge
- 3.246
@Bullet Tooth
Ja zum Totlachen - hab ich auch schon gesehen
Tja jetzt natürlich richtig passend, man müsste mal ne Stellungnahme von ihm fordern ^^
@Edzard:
Tja nur wird nVidia damit wohl wieder die allseits gerühmte "Performancekrone" in den Händen halten. Tja stellt sich die Frage was besser ist, nVidia Quad SLI Weihnachten oder 5870x2 Quad CF in 1-2 Monaten... ^^
[Wahrscheinlich wirds wieder ATi werden weil ich nicht solange warten will xD]
Das mit dem nVidia 512 Bit IF könnte aber auch ne absichtlich gesäte Fehlinfo sein, um die Presse zu verwirren und die richtigen Infos erstmal verschlossen zu halten... Machen die ja öfters
[Ich weiß das ist Wunschdenken ]
Ja zum Totlachen - hab ich auch schon gesehen
Tja jetzt natürlich richtig passend, man müsste mal ne Stellungnahme von ihm fordern ^^
@Edzard:
Tja nur wird nVidia damit wohl wieder die allseits gerühmte "Performancekrone" in den Händen halten. Tja stellt sich die Frage was besser ist, nVidia Quad SLI Weihnachten oder 5870x2 Quad CF in 1-2 Monaten... ^^
[Wahrscheinlich wirds wieder ATi werden weil ich nicht solange warten will xD]
Das mit dem nVidia 512 Bit IF könnte aber auch ne absichtlich gesäte Fehlinfo sein, um die Presse zu verwirren und die richtigen Infos erstmal verschlossen zu halten... Machen die ja öfters
[Ich weiß das ist Wunschdenken ]
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 369
- Aufrufe
- 51.624