News Fermi: Und täglich grüßt das Gerüchte-Murmeltier

Status
Für weitere Antworten geschlossen.
Man schaue auch mal ergänzend bei www.3dcenter.de vorbei. Das steht z.B. solches:

"nVidia hat hingegen per Facebook ein weiteres Fermi-Detail bekanntgegeben: Danach unterstützt der GF100 HighEnd-Chip einen neuen 32x Anti-Aliasing Modus. Wie dieser genau aufgebaut ist, bleibt dato unbekannt – genauso wie die Performance-Anforderung eines solchen Modus. Sollte nVidia aber nicht gerade sehr bedeutsame Fortschritte beim Thema des Performanceverlusts unter Anti-Aliasing gelungen sein, steht zu vermuten, daß ein 32x Anti-Aliasing einfach zu langsam für die allermeisten der neuen Spiele ist – es wäre dann halt ein nettes Checklisten-Feature. Möglicherweise wäre dieser Modus interessant zur Verschönerung ältere Spiele – aber natürlich muß das Hauptaugenmerk von nVidia darauf liegen, wie man unter aktuellen Spielen dasteht.

Wirklich interessant wäre zum Anti-Aliasing des GF100-Chips eher denn die Frage, ob man es mal geschafft hat, die Effizienz des 8x Anti-Aliasings zu erhöhen, so daß nVidia in dieser Disziplin nicht regelmäßig hinter eigentlich langsameren ATI-Beschleunigern zurückliegt. Genauso interessant ist die Frage, ob nVidia nun auch (wieder) SuperSampling- oder entsprechende Mischmodi integrieren konnte, die Performance zumindest von HighEnd-Grafikkarten ist ja eigentlich ausreichend dafür. Gerade in diesem Punkt könnte man sich gegenüber ATI trotz des inzwischen deutlich späteren Starts profilieren, zudem geht vieles im Bereich des Anti-Aliasings auch über reine Treiber-Arbeit, kann also auch erst nach dem Backen des finalen Siliziums noch eingebaut werden."
 
Lübke schrieb:
@KAOZNAKE: den g200 zu shrinken, bringt imho auch nix, da der schon zu groß ist.[...]ein kleiner g92 dürfte dagegen aufgrund seiner geringen größe und immernoch guten leistung noch ein verkaufsschlager als "gts340" [...] mehr takt und weniger verbrauch, und man wäre zumindst im bereich bis zur 5770 wieder aufgestellt.

Das Problem daran ist, dass der schnellste G92 IMO auf der GTS250 verbaut ist und die schon langsamer ist als ne 5770.

https://www.computerbase.de/2009-11/test-ati-radeon-hd-5970/18/#abschnitt_performancerating

(Macht ja auch Sinn, da 5770=4870 ca. und die ja zeitlebens mit der GTX26o konkurriert hat)

Wenn man also mit der 5770 konkurrieren will leistungsmäßig gesehen, brauch man schon den GT200 als Shrink.

So groß ist der dann auch nicht mehr.

Faktor ist ca. 0,7 immer. Der GT200ohneb hat 576mm², der GT200b demzufolge 403mm² und der GT200"c" wäre dann bei 282mm². Ziemlich genau zwischen RV770 (256mm² und "originalem" G92 (334mm²)

:eek:

Auch nur 70mm² kleiner als Cypress. Naja, Performance wär ja in etwa auf 5850 Niveau, dafür kleiner.

Mit dem Markennamen NVIDIA Geforce geht da schon was.

Nach meinem Wissenstand hat man da auch dran gearbeitet.

GT200b-->55nm-->GTX280 usw.

G218 Chip-->40nm-->G210/G310 Graka
G216 Chip-->40nm-->GT220/GT315 Graka
G214 Chip-->kam nicht-->Überarbeitung-->G215 Chip-->40nm-->GT240 Graka
G212 kam nie (vielleicht ja doch noch irgendwann???), wäre vermutlich ne beschnitte Version von GT200b geworden, ala G80-->G92

Sinn machts insofern, das man weniger Produktionskosten hat (falls mal die yields stimmen). Aus endkundensicht bleibt geringerer Stromverbrauch und kein DX11.

An den Preisen wird sich kaum was ändern, da die Grakas eh schon schweinebillig sind.
 
Wenn man also mit der 5770 konkurrieren will leistungsmäßig gesehen, brauch man schon den GT200 als Shrink.

Gesetzt der Fall das man keine Fermi basierten Chips in diesen Segmenten in der Pipeline hat, was zu bezweifeln ist.

Nach meinem Wissenstand hat man da auch dran gearbeitet.

nV hat schon an so einigen Chips gearbeitet, die nie das Licht der Welt erblickten, da macht einer mehr oder weniger den Kohl auch nicht mehr fett. :D

GT200b-->55nm-->GTX280 usw.

Das war die GTX 285.

Sinn machts insofern, das man weniger Produktionskosten hat (falls mal die yields stimmen).

Und eben das tun sie ja nicht. Und selbst wenn, gegen DX11 + Eyefinity wird man mit DX10 IMHO keinen Blumentopf gewinnen.
 
eig. kann man doch jetzt ohne Bedenken eine Hd5870 für 399Euro kaufen,
denn in den nächsten 6 bis 9 Monaten ist wohl eh nicht mit einem größeren Wertverlust zu rechnen
oder sehe ich das falsch?
(ich habe meine ja schon aber viele andere sind da ja noch am überlegen)
 
@KAOZNAKE: ich sprach ja auch von einem g92c, sprich einen shrink auf 40nm analog dem gt240. als g92b ist aber auch noch etwas spielraum in sachen takt vorhanden. asus beispielsweise bietet eine version mit
Chiptakt: 775MHz, Speichertakt: 1180MHz, Shadertakt: 1950MHz
standart ist
Chiptakt: 738MHz, Speichertakt: 1100MHz, Shadertakt: 1836MHz
und von hand ist da noch einiges mehr rauszukitzeln.
ein hit wäre es natürlich, wenn man den speicherkontroller durch den der gt240 ersetzt und so gddr5 draufpacken kann, denn die gts250 ist ja speicherlimitiert. das ganze dann mit 1024mb und die gtx260 würde vermutlich wackeln. ;)

aber wie gesagt, ohne win7-logo geht da bei den oems und im mm-markt nix und das bedarf minimum dx10.1.

jetzt wäre eigentlich der zeitpunkt, wo sich bei nvidia eine umlableaktion wirklich lohnen würde. mehr takt, mehr speicher und ein neuer name mit ner 3 vorne hätte den absatz vor weihnachten sicher stark angekurbelt. :D

@BmwM3Michi: der "wertverlust" wird mit der besseren verfügbarkeit einsetzen und nochmal dann wenn der fermi (eines schönen tages mal) auf dem markt angekommen ist. zumindestens ersteres erwarte ich für januar/februar. wer nur aufrüsten will, um das neueste zu haben, sollte imho noch ein paar wochen gedult haben. war die uvp der karte nicht 299,- €?
 
Zuletzt bearbeitet:
Ganz unten hat Nvidia ja schon angefangen (G 315). Ich kann mir weitere Umbenennungen vorstellen. Letztendlich frage ich mich wie Nvidia diese 3 Monate überbrücken will (falls es denn so sein sollte), irgendwie ist ihr Angebot nicht so gut abgestimmt wie das von ATI. Mal schauen inwiefern dieses Verhalten vom Konsumenten abgestraft wird (OEM ausgenommen).
 
Ja Uvp der HD5970 war 299 Euro!
Habe wo gelesen das Nvidia für die neuen Highend-Karten ca. 400Euro verlangen muss
um wegen hoher Entwicklungskosten noch etwas zu verdienen,
was den Preis der Radeons dann ja nicht sehr unter Druck bringen würde.

Ups ich meinte natürlich die HD5870 für 299!
 
Zuletzt bearbeitet:
Moin !
Dilemma, Dilemma !
Mein Bruder arbeitet hauptsächlich (beruflich) mit Blender, zockt aber auch mal ganz gerne und hat mich gefragt, was ich ihm als Sysupgrade raten würde.
(Z.ZT. läuft ein Pentium 4 mit einer quadro 540 und nur 3GB RAM in einem HP-Rechner)
Für den professionellen Bereich hatte ich ihm geraten, ein neues Intelsys mit min. 6GB RAM zu bauen und auf den Fermi zu warten.
Wenn der sich noch weiter verzögert, muß ich wohl einen Kaufberatungsthread starten, da das Sys schon Ende Januar benötigt wird.
Ein weiteres Problem ist, daß er hauptsächlich auf OpenGL/ CL setzt...

-"Ich sehe Dunkles auf mich zukommen !!!"
-"Ist nicht meine Schuld, daß sich der Toast verklemmt hat."

Naja, am 07.01.10 sind wir schlauer.

Agi

P.S.:
@GodCast
Die 512´er (KByte)-Speichererweiterung für meinen Amiga500 hat ´95 "nur" 199DM gekostet. ;)
Das waren aber noch die Zeiten, als die neuen Chips nicht rauskamen, bevor die Programmierer das letzte Quäntchen rausgequetscht hatten.
(sogar die power-LED als Soundfilter)
sorry for offtopic !
 
DvP schrieb:
Guck mal welche Grafikkarten du mit einem 400W Netzteil alle sauber zum Laufen kriegst ;-)
https://www.computerbase.de/2009-11/test-ati-radeon-hd-5970/21/#abschnitt_leistungsaufnahme
Aber natürlich ist es gut wenn das Netzteil genügen Luft hat, aber wenn man nach den nackten Zahlen geht, kannst du ne 5870 auch locker reinpacken ;-)
Das wäre sehr oberflächlich. Denn 400W ist die Gesamtleistung (5V + 12V + 3,3V). Und die 12V waren bei mir ausgelastet. Die 3GHz waren nur mit der unten angegebenen Spannung möglich. ^^ Mehr Spannung oder mehr Takt und das System war instabil. Habs mal mit einem anderen Netzteil getestet und die CPU war leicht noch mehr übertaktbar, was mich aber eh nicht interessiert.
Nach Zahlen des Gesamtverbrauchs zu gehen is leider wenig ausschlaggebend für die Netzteilwahl. Dafür müsste man das Netzteil in deinem verlinkten Test modifzieren und jede Schiene über ein Ampere-Meter schicken, das ganze dann im 1/100s-Takt aufzeichnen und daraus falls gewünscht die Leistung in Watt für jede Schiene berechnen. Das ganze gehört dann schön in einem Diagramm veranschaulicht.

Derzeit (!) beträgt die Leistungsaufnahme meines Systems (bei 1,6GHz Takt, Vcore ~1,1V) an der Steckdose gerade mal 140W Idle, 165W Last. Gezockt wird in letzter Zeit nur noch selten... ^^ Und bei vielen Spielen (außer FS9 und Joint Operations) laufen alle Spiele eigentlich halbwegs verteilt auf die Cores und zwischen 3, 2.4 und 1.6GHz is FPS-mäßig kaum Unterschied. => Spiele laufen Grafikkartenlimitiert.

Aus letzterer Erkenntnis wäre vlt iwann (!) eine neue Grafikkarte nett. Vorallem wenn ich 'nen größeren Moni kauf (denke da an: 1920x1080). Ich brauch ned unbedingt 8fach AA, aber 4x wäre schon nett und volle Details bei Anno 1404 und einer brauchbaren Framerate.
Wie gesagt... es eilt eh ned. Nur die neue Fermi is halt auch wieder ein Ofen. :(

MfG, Thomas
 
DvP schrieb:
Mal sehen was bei AMD/ATI nun bei der neuen Architektur rauskommt. Der Ausgangspunkt der aktuellen R5XXX Serie ist aber mit Sicherheit ein günstigerer als es der GT200b bei nv war. Auch wenn die Chips eine neue Architektur haben werden, spielt die vorgelegte Basis der Vorgänger doch immer wieder eine nennenswerte Rolle.
RV870 und Fermi basieren auf ihren Vorgängern, das sollte klar sein. ATIs nächste Generation scheint aber eine von Grund auf neu entwickelte Architektur zu werden, ähnlich wie AMDs Bulldozer. Zumindest wird dies spekuliert. Das meinte ich mit "grosser Hammer". Sofern die Spekulationen stimmen, kann das ein gewaltiger Sprung werden, der nVidia dann deutlicher zurückwirft als momentan.

Schaffe89 schrieb:
Erstens hat TSMC damit zu tun (Yield) und nicht Nvidia.
Nein, nVidia. Schliesslich sind die für ihre Mainstream und Low-End Designs verantwortlich, nicht TSMC. Die High-End Modelle, von denen die Enthusiasten hier träumen, sind im Endeffekt für den geringsten Teil des Absatzes verantwortlich. nVidia hielt es ja nicht mal für notwendig, Mainstream und Low-End Designs des GT200 auf den Markt zu bringen und haben stattdessen lieber G92 umgelabelt. ATI wird Q1 2010 die Palette ihrer 5000er Karten komplett haben. Wie lange will denn nVidia warten, wenn sie bis dahin noch nicht mal irgendwelche Fermi GeForces auf dem Markt haben? Bis 2011? Oder wird doch nur wieder G92 geshrinkt und umgelabelt? :rolleyes:

Schaffe89 schrieb:
Und warum sollte die neue Architektur bei ATI effizienter und deutlich schneller werden. Was ist denn da bitte so klar?
Sowas nennt sich Fortschritt. Oder ist der RV870 langsamer und ineffizienter als der RV770?
 
Hey Leute ich hab da mal eine Frage:
Soll es dich bei diesen Karten Um Karten für Gamer handeln, also zum spielen?
Und wenn ja, was sollen die dann bitte Kosten, wenn sie mit 6GB Ram ausgestattet werden?
 
Ich fasse noch mal Zusammen.

Nvidia
GT200 hätte AFAIK Anfang 2006 kommen soll --> Verspätung mit AFAIK A3-Stepping
dazu niedrige Takte auf G80-Einführungs-Niveau

GT200b --> Verspätung mit B3-Stepping
trotz bzw wegen kaum gesteigerten Takten
Bei beiden war die Yieldrate mit AFAIK 60 & 70% nicht berauschend. Eigentlich bei G80 auch, aber mangels Konkurrenz konnte man die noch teuer verkaufen.

GT212 - mit 392 Shadern hat man recht bald aufgegeben

GT300 --> Verspätung mit A3-Stepping ... No Na Ned - Eine fundamentale Weiterentwicklung von GT200/G80
Takte wieder auf G80-&-GT200-Einführung
Wobei dieses-Mal die 40nm-Fertigung fürn Arsch ist, was die Shader-Reduzierung auf 448 Shader gut erklärt.

ATI
RV6x0-Serie schon Anfnag 2008 vollständig auf 55nm ... Yieldrate? & Takte gut
Lange vor Nvidia
Damals merkte man wegen zu starker Konkurrenz nichts

RV7x0-Serie zwischen Juni 2008 und Jänner 2009 ... Yieldrate & Takte gut
Damals merkte man eigentlich nicht so viel, da die Wirtschaftskrise viel dominanter war

RV8x0-serie zwischen Sept 2009 & Jän 2010 ... Takte gut, aber Yield Problematisch, aber Pünktlich!!!

RV9x0-Serie ab 1H 2011, wobei eher Anfang 2011 gemeint ist.

Also, auch wenn die 32nm bzw. 28nm-Fertigung bei TSMC Probleme macht, kann ATI immer noch mit geringeren Probleme Shrinken (3(-6) Monate später) als Nvidia mit ihrer deutlich größeren GPU.

Aber es gibt auch Globalfoundries, wo AMD während des Jahres stark umsteigen will (außer die Fertigung ist schlechter)
Und wenn da schon die 40nm-Fertigung besser (Yield & Takt) und Nvidia nicht umsteigt, dann wird es Nviida noch schwerer haben.

Und wenn Nvidia bei GloFo nicht auch gleich mit 32/28nm mitgeht, und bei TSMC bleibt, die eventuell wieder Probleme haben könnten, ...
Wobei auch wenn Nvidia gleich mit zu GloFo geht, dann kann ATI immer noch unproblematischer Shrinken a la bessere Yield oder Takte oder gar 3 Monate früher

Na ja, so & momentan sieht es ziemlich übel aus für Nvidia.
Aber die Entwicklung konnte man schon lange sehen. Zumindestens diejenigen, die die Vergangenheit nicht ignorierten.

Trotzdem wünsche ich Nivida viel Glück.
Überraschungen hat es ja allein seit (inkl. mit) G80 schon mehr als genug gegeben, wodurch man auch wieder nicht alles ausschließen kann.
Aber die Hoffnung stirbt nun mal zu letzt.
 
Zuletzt bearbeitet:
genau, das schlimmste was uns passieren könnte wäre wohl wenn einer der beiden Hersteller
aufgeben würde und dem anderen das Monobol überlassen würde, möchte nicht wissen was
wir dann für ne Highend-Karte zahlen müssten. :rolleyes:
 
Denke nicht das sich NV aus dem Gamerbereich zurückziehen wird. Da geht es ja nicht um Geld. Viel verdiene nsie daran nicht.
Dazu ist OEM und HighEnd/Server viel zu lokrativ!


Aber ja ... wenn einer der beiden fehlt wirds komisch!
 
Ach was wünsche ich mir die alten Zeiten als es noch mehr als ATI und nVidia gab. Da war Matrox mit ihrer genialen G400 Reihe, S3 mit dem Savage, der zwar grottig war aber Texture Kompression auf den Markt brachte, Power VR und 3Dfx und noch ein paar andere welche immer für Spannung im Grafikkkarten Markt gesorgt haben.
Derzeit finde ich den Grafikkarten Markt so unspannend wie noch nie zuvor.
 
Mann, ich will die 360 endlich einbauen und selber testen.
Vor allem für Folding@Home erhoffe ich mir einen fetten Boost, damit man mal zum i7 aufschließen kann.
 
buntstift23 schrieb:
Denke nicht das sich NV aus dem Gamerbereich zurückziehen wird. Da geht es ja nicht um Geld. Viel verdiene nsie daran nicht.
Dazu ist OEM und HighEnd/Server viel zu lokrativ!


Aber ja ... wenn einer der beiden fehlt wirds komisch!

Sind die Grafikkarten eigentlich inzwischen Turingvollständig?
Wenn nicht können sie einen CPU Cluster nicht vollständig ersetzten....
 
Ich überlege die ganze Zeit schon, ob die Verspätungen schon lange vor ihrer Bekanntgabe klar sind?
Wenn man einfach sagt, dass die Karten demnächst kommen, gedulden sich einige Interessenten noch und wechseln nicht zur Konkurrenz... Für NVidia kommt die Verspätung sicher nicht überraschend, obwohl es vor einigen Wochen ja noch hieß, dass die neuen Karten bald erscheinen werden...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben