News ATis DirectX-11-Serie wird Radeon HD 5800?

Wen juckt das schon?
Paar Wochen später rockt Nvidia mit "DX11 mal 2", CUDA XXL, und Phsix-Quadrat.
10 mal soviel Leistung mit halber Leistung als ATI :D
 
spartaner_athen schrieb:
Neee, glaub ich nicht, dass die 58xx heissen werden. Die heissen doch garantiert Radeon 2000, 3000 und 4000.

Maaaan ey. Was sollen solche Titel? Nachdem die letzten drei Serien 28xx, 38xx und 48xx hiessen - WIE soll die neue Serien denn sonst heissen? Fussball Z1000 oder was?

Maaaan ey. Nachdem die letzten 5 Serien Geforce 5800, 6800, 7800, 8800 und 9800 hiessen - WIE soll die neue Serien denn sonst heissen? GTX 260 oder was?.
:freak:
 
Zuletzt bearbeitet:
"10 mal soviel Leistung mit halber Leistung als ATI "


das macht so irgendwie keinen Sinn ;)

Ansonsten, lassen wir uns überraschen. Ne schlechte Karte wird es bestimmt nicht werden
 
Wen juckt das schon?
Paar Wochen später rockt Nvidia mit "DX11 mal 2", CUDA XXL, und Phsix-Quadrat.
10 mal soviel Leistung mit halber Leistung als ATI

ATIs High-End Chip wird wohl so um die 300mm² haben, bei nv sind es wohl so um die 550mm². Von letzteren Chips dürften dann etwa 100 auf einen Wafer passen. Spekulieren wir mal auf 5000$/Wafer, dann macht jeder Chip -- ob ganz oder kaputt -- 50$ bei nvidia. Als ATI mit 40nm angefangen hat, waren so etwa 20% der Chips funktionstüchtig; und das bei einem 180mm² Chip. Wenn nv bei der gleichen Ausbeute angängt sind das 250$/Chip Herstellungskosten, etwa so viel wie die HD5870 im Handel kosten dürfte.

Die muss auch doppelt so schnell sein, wenn sie überhaupt verkauft werden soll, ohne dass nv draufzahlt.

P.S.: Die obige Rechnung (Abschätzung) steht und fällt mit der Frage, ob die Steigerung der Yield bei den ATi-Chips sich auf die nv-Chips übertragen lässt. Wenn ja sind 0.6^3=0.2 zumindest eine erste Abschätzung. (Yield-Rate^Grössenverhältnis). Fangen die mit der Optimierung bei Null an, dann sind wir bei 0.2^3=1%, also 5000$/Chip, dann können sie höchstens der Presse was vorführen aber nicht liefern.

P.P.S.: Das sind Abschätzungen, mehr nicht.
 
was der G300 für NV kostet is mir relativ Wurst, wenn hinten rauskommt was rauskommen soll. Glaubt man den Spezifikationen wird der G300 auch eine ganzschöne Höllenmaschine.
Ich für meinen Teil warte bis ich weiß wer bei der next gen das Rennen macht. Endlich mal beide Hersteller im selben Prozess. Beide mit gravierenden Architekturänderungen, beide erstes mal DX11 - wird sehr spannend wenn ihr mich fragt.
 
Das war auch nur spaß von meiner Seite.
Find Spekulationen über die mögliche Leistung nur immer so witzig. Warten wirs einfach mal ab. Ich persönlich glaube nicht an Wunder von daher denke ich, dass sie kleinste 5800er leistungstechnisch etwas über der 4890 liegen wird.
 
Steve81 schrieb:
Ich persönlich glaube nicht an Wunder von daher denke ich, dass sie kleinste 5800er leistungstechnisch etwas über der 4890 liegen wird.
Das wäre bei der vermuteten Diegröße, den spekulierten technischen Daten und dem angepeilten Preis von 290$ aber eine arge Enttäuschung.
Imo wird die HD 5870 schneller als eine HD 4870 X2.
 
Ich für meinen Teil warte bis ich weiß wer bei der next gen das Rennen macht. Endlich mal beide Hersteller im selben Prozess. Beide mit gravierenden Architekturänderungen, beide erstes mal DX11 - wird sehr spannend wenn ihr mich fragt.
Stimmt, die gleiche Situation hat es beim R600 v. G80 gegeben. Nur da war es genau anders rum NV war früher fertig. Was diesmal noch dazu kommt und den meisten zurecht am A, vorbei geht ist der Larrabee. HD 5000 v. GT300 v. Larrabee. Krasseren GPU Showdown hat es noch nie gegeben. Und wird es für Jahre auch nicht mehr geben.:schluck:
 
@theorist: Das passt dann doch ungefähr, wenn die 5850 etwas schneller ist als die 4890 dann wird die 5870 vermutlich etwas schneller sein als die 4870x2...
 
Kasmopaya schrieb:
Ist ja auch nicht schwer, sogar die GTX 285 2GB ist schneller als die HD 4870X2 den µRucklern zum Dank. Ihr dürft nicht immer die Fake FPS mit den realen FPS vergleichen. HD 5000 wird die X2 in Grund und Boden stampfen 1000%ig!

Du weist aber schon, dass die Micro-Ruckler nur bemerkbar sind, wenn die FPS so um die 30 sind, oder?
 
Du weist aber schon, dass die Micro-Ruckler nur bemerkbar sind, wenn die FPS so um die 30 sind, oder?
Jep stimmt, aber nicht bei ATI ;)
 
larrabee soll doch erst 2011 kommen? da kommt doch bestimmt schon die nächste graka generation von ati/nvidia?
 
w0mbat schrieb:
Du weist aber schon, dass die Micro-Ruckler nur bemerkbar sind, wenn die FPS so um die 30 sind, oder?

Für dich vielleicht. :D Einige nehmen(bzw. sind in der Lage) Veränderungen bei 50 und 60FPS immer noch war, warum glaubst du zocken einige CS mit 200FPS und mehr...

µRuckler sollte man bei Tests mit -20-30% FPS bestrafen dann währe es fair gegenüber singel GPUs. Dazu kommt noch die Skalierung und schon hat man im Schnitt real nur 20-30% mehr FPS mit Multi GPU. Und das sind alles Fakten. ;)

larrabee soll doch erst 2011 kommen? da kommt doch bestimmt schon die nächste graka generation von ati/nvidia?
http://de.wikipedia.org/wiki/Larrabee_(GPU)
Q1 2010
 
Zuletzt bearbeitet:
mal schauen obs powerplay funzt - geilomat - ich freu mich drauf.
Hoffe es kommt zu beginn gleich mal einen mit gescheitem Lüfter *G*
 
Die HD5870 wird am wahrscheinlichsten so schnell sein wie zwei HD 4850 1G. Und ich bin fest überzeugt das sehr stormsparend unter 2D wird/ist.
 
Gespannt sein darf man dann auch auf die neuen Mainstream-/Performancekarten von Nvidia. Nach den bisherigen Gerüchten dürfte die High-End-Krone auch diesmal an Nvidia gehen, aber in dem Preisbereich kauft ja ohnehin nur ein Bruchteil der Leute.

Dürfte zwar noch ein Weilchen dauern bis die da sind aber der G92 hat sich schön langsam seinen Ruhestand verdient ;).
 
Zurück
Oben