News Kommt Nvidias GT300 mit 512 Shadereinheiten?

nun ja, man kann nur hoffen, dass die 40nm Umstellung für nVidia gut klappt. Ansonsten müssen sie vielleicht wieder wieder zuerst ein Chipmonster in alter Fertigungsgröße vorziehen wie beim GT200 um dem angeblich schon bald kommenden RV870 nicht zuviel Vorsprung zu überlassen.

Kleiner als der GT200 wird's wahrscheinlich aber auch mit 40nm nicht werden.

Bleibt für nVidia nur zu hoffen, dass die Multi-GPU Probleme bei Ati noch länger bestehen, ansonsten sind sie mit ihrer Größe wohl weiterhin im Nachteil...
 
ATi hat doch in der HD4870 schon 800 Shadereinheiten.
Was sind dann dagegen, bitte schön, 512? XD
 
Phantro schrieb:
klingt nach ner wahren bombe was nvidia platzieren wird... bin ich echt ma gespannt. vor allem auf die reaktion von ati bin ich gespannt, denke mal, nach der guten 4000er serie werden die nicht schlafen und ebenfalls was brauchbares bringen...

Also erst mal kommt die 5er Serie mit 1,9TF.

Ende des Jahres steht eine 4890 in 32nm in Aussicht. (Evtl. mit "Dual-Die-Chip", also zwei Graka-Prozessoren auf einem Package bei der X2 Version natürlich)

Und Anfang 2010 ist der 28nm Prozess angekündigt.

Geht also vermutlich ziemlich ab in nächster Zeit.
 
Zuletzt bearbeitet: (Info hinzugefügt)
na dann mal abwarten und schon mal sparen. Kann mir nicht vorstellen, das wir diese luxuriösen Karten für unter 400€ bekommen werden. Wir wurden zwar in den letzten Monaten mit doch recht günstigen Preisen verwöhnt, aber beim Generationswechsel wird das bestimmt wieder anders aussehen.

Hoffe mal, das es endlich für die DX11-Generation einen gescheiten Stromsparmechanismus gibt, der die Karte soweit runtertaktet, das sie fast nichts verbraucht. Unter windoof braucht man ja keine wirkliche Grafikleistung. Das ganze würde sich dann auch noch positiv auf die Geräuschkulisse auswirken.
 
hmm 512Sp sind nicht schlecht doch ich finde, dass heutzutage viele auch auf den stromverbrauch und auf die kühlung gucken...ich finde im moment geht ati den besseren weg. die 8000er reihe war doch noch immer die beste von nvidia..wie ich finde.;)
 
@ Weltenspinner:
Is ironisch gemeint, oder!?

AMD und nVidia haben komplett unterschiedliche Shader, die man keineswegs direkt miteinander vergleichen kann!
 
Zitat von Janniator
8000er reihe war doch noch immer die beste von nvidia..wie ich finde.
Dito...Danach wurde das Verhältnis von Kühlung/Lautstärke/Leistungsaufnahme ein wenig schlechter.
Somit hoffe ich, das Nvidia es mit der neuen Generation schafft, in entscheidenden Bereichen eine Trendwende einzuleiten, genau dann steht einem Umstieg nichts mehr im Wege.

Ein Grund für die monströsen Daten könnte sein, dass Nvidia zuerst das Flaggschiff der Serie released und dann im späteren Modellzyklus nach unten beschnittene Karten.
 
Klingt für mich nicht mehr als simple Zahlenspielereien, auf die jeder kommen könnte. Ich glaube kaum, dass mehr als ein halbes Jahr vor geplantem Launch tatsächlich jemand außer den Ingenieuren autenthische Informationen hat. Beim RV770 hielten sich die (offenbar gezielt gestreuten) Falschinformationen bis kurz vor Launch und selbst beim GT200 hat man erst 2 Monate vor Launch die Wahrheit herausgefunden. Also sowas nur im entferntesten ernst zu nehmen und sogar ziellos über Stromverbrauch, Die-Größe und sonstiges zu spekulieren, halte ich für ziemlich naiv.
 
Zuletzt bearbeitet:
Weltenspinner schrieb:
ATi hat doch in der HD4870 schon 800 Shadereinheiten.
Was sind dann dagegen, bitte schön, 512? XD

Schon mal etwas von 5D bzw. 1D Shadern gehört?
Du kannst die Zahl 800 durch 5 teilen dann hast du das wahre ;)
Kurz gesagt, 160 Shadern (5D) sind bei denn Radeon HD4850/4870/4890 angesagt.
Leider wissen manche Leute dies nicht bzw. vergessen es.
Eine GTX260er hat auch "nur" 216SP ;)
 
Hat NVidia nicht damals, nach dem GT200, verlauten lassen, dass es keine so riesigen GPUs mehr geben soll? Mit 512 Shadern wäre das Ding auch in 40nm wohl nicht kleiner als bisher, und demnach auch nicht billiger zu fertigen. Technisch sicher möglich, aber obs wirtschaftlich Sinn macht?

Könnte mir nur Vorstellen, das Nvidia durch Ati momentan mit dem Rücken an der Wand steht, keine Zeit hat eine neue Architektur zu Entwickeln, und auf Gedeih und Verderb nochmal einen Monsterchip bringen muss um bei der Performance mithalten zu können.

Warten wirs ab.
 
die Karte wird bestimmt 2000W Netzteil brauchen, da muss wohl auch ein neues her :-)
 
digitalangel18 schrieb:
Hat NVidia nicht damals, nach dem GT200, verlauten lassen, dass es keine so riesigen GPUs mehr geben soll?
Falls man nach dem Launch RV770 wirklich derartiges geplant hätte, würde das aber frühestens den Nachfolger des GT300 betreffen, da dessen Design zu diesem Zeitpunkt sicher schon vollendet wurde. Die komplette Entwicklung von GPUs dauert Jahre, da kann man nicht mal eben alles umkrempeln.
Solltest dir vll mal diesen Artikel durchlesen:
http://www.anandtech.com/video/showdoc.aspx?i=3469
 
Zuletzt bearbeitet:
Ich hoffe mal, dass die Nvidia Karten genauso stark werden wie die 58xx Serie.
Dann wird es für uns Kunden wieder sehr interessant. :)
 
Naja, das beste am GPU Markt ist immernoch, nur jede zweite oder dritte Generation zu wechseln - sonst lohnt die Mehrleistung für den Preis nichtmehr.

Ich denke nicht, dass die (SingleGPU) Highend-Karten der neuen Generation mehr als 40% schneller sind als die aktuellen jetzt.

Daher würde ich diese Generation lieber auslassen, um dann ne richtige Mehrleistung bei der nächsten Serie zu bekommen :). Zumindest, wenn man schon eine a ktuelle Karte hat sollte man sich das überlegen.
 
gruffi schrieb:
Nicht wirklich.

@topic
Oh oh, ich ahne schon schlimmes. Das wird vermutlich wieder ein riesiges Design mit hoher Leistungsaufnahme. Die Unvernunft ist aus nVidia Entwicklungsabteilung leider noch nicht gewichen. Man tut offenbar alles, um mich als Kunden zu verlieren. Schade eigentlich ...

Ich denke nicht das sie ein Grafikchip-Spezialist sind und beurteilen können ob Nvidias Entwicklungsabteilung unvernünftig handelt.
Nvidias Chip hat unter Last eine gleichhohe Energieaufnahme wie ATIs Chip, im Idle Modus verbraucht Nvidias Chip sogar weniger als die Konkurrenz. Weiters arbeitet Nvidias Chip pro Takt effizienter bzw. bringt mehr Leistung pro Takt. Vielleicht wird der GT300 schon in 40nm kommen, dies wird den Energieverbrauch weitersenken. Dies können wir als Laien von außen beurteilen.

AMD Fanboys hört auf alles was nicht von eurer Lieblingsfirma ist schlecht zu reden und haltet euch an die Fakten.
 
Mal abwarten. Immerhin wär so ein Chip selbst in 40nm riesig und es sind erstmal nur Gerüchte.
Allerdings wäre ein Leistungsschub wie beim letzten Generationswechsel schon wünschenswert.
 
welche 58xx serie?

die Geforce 5800 Ultra? na ich bitte dich, die war doch mal voll fürn ar**h
und von der HD58XX weiß man ja noch nichts...
 
Autokiller677 schrieb:
also wenn der kram bis juli erscheint und nicht mehr als 250€ kostet hab ich meine neue Graka gefunden....
da ich meinen pc gerne so 5 jähren nutzen würde wär dx 11 schon ganz nett...

allerdings denk ich das ich das preislich so ziemlich knicken kann^^

Warum gibt es hier eigentlich so sau viele, die 3 Jahre vor dem Launch einer CPU, Graka oder sonstigem Bimbam sowas schreiben?? :freak:

Ich mein, von der Karte is nix, aber auch garnichts als so ein Gerücht vorhanden...
Es kann ja sein, dass die HD5 Serie viel schneller ist als die NV Karten mit dem 300er drauf und dazu noch viel günstiger ist, oder??

"Hab gehört der nächste Audi A6 hat 4 Räder dran, wenn ich den für 10.000€ bekomm dann weiß ich jetzt schon, was mein nächstes Auto ist" :D

@ Topic: Naja, bin gespannt was da die nächste Zeit so passiert. Ich wünsch mir nen relativ ausgeglichenen Markt zwischen NV und ATI, weil dann die Preise wegen den Preiskämpfen (wie jetzt) schön im Keller bleiben :)
 
Zurück
Oben