ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
KAOZNAKE schrieb:
Lt. Charlie wurde....

Und laut mir wird Sandy Bridge rocken wie sonnst was und auf Larrabee basieren. Ist zwar genau so Unsinn, aber nun hast du auch eine Quelle für diese Unsinnige Behauptung. Wie wäre es mit Seriösen Quellen? Charlie legt sich die Storys so zurecht, dass er die nächste storry auf der vorletzten Storry, wo auch nur er die "Quelle ist" aufbauen kann. Das ist die Kunst eines Lügners, sich selbst Geschichten dazuzulügen, um andere Geschichten auf dieser Grundlage als Wahr hinzustellen.

KAOZNAKE schrieb:
Da steht: REdesigned, nicht designed. Ohne Re --> sie hatten was und habens umgemodelt.

Ja, sie haben die Architektur redisigned und zwar von Grund auf, nicht irgend einen Chip, das hab ich auch schon geschrieben, kann es hier aber für dich noch mal schreiben.
 
Zuletzt bearbeitet:
Wenn man DIESE von Screemer zitierten Worte nimmt, dann war GF100 vorher nicht auf diese Dinge ausgerichtet.
Man muss sich auch immer fragen, inwiefern ein solches Statement auf die Goldwaage gelegt werden kann.
Da kann sich durchaus jemand in der Wortwahl vergriffen haben und jetzt wird da viel hineininterpretiert.
Aber: Dann sollte NV ein Statement dazu rausbringen und das korrigieren. Fand nicht statt -> Aussage kann auf die Goldwaage.

Grüße vom:
Jokener
 
Char-lie schrieb:
Char-lie schrieb:
OFFICIAL WORD FROM NVIDIA is that gaming is now a footnote for the formerly leading graphics company
Dabei hat das NV nie gesagt und zudem dementiert.
 
@Jokener
Genau, nvidia hat ja sonnst nix anderes zu tun, als alles was ihr von einer Gewissen Person in den Mund gelegt wird immer wieder zu dementieren. Nvidia hat schon mal so eine Aussage gemacht und sich auf die Architektur bezogen, nicht auf einen Chip. Ich wüsste nicht, warum sie jetzt noch mal das betonen müssen, was alle eigentlich wissen und nur irgend einer wieder mit absichtlichem Missverständniss für spektakuläre Geschichten sorgen will.
 
silent-efficiency schrieb:
Man muss einfach englisch verstehen können und die zusammenhänge kennen.
schönen dank für die aufklährung. mein englisch ist denke ich so gut, dass ich glatt in den usa gelebt haben könnte...
silent-efficiency schrieb:
@Jokener
Genau, nvidia hat ja sonnst nix anderes zu tun, als alles was ihr von einer Gewissen Person in den Mund gelegt wird immer wieder zu dementieren.
hallo?! offizielles statement. von anderen personen ist da erst mal nix zu sehen und wenn du fuad, was nividia berichte angeht, schon nicht mehr als vertrauenswürdig ansiehst ist dir kaum noch zu helfen.

€dit: kein neuer post um auf da unter mir zu antworten. ich sag einfach mal: lass stecken. mit dir zu diskutieren ist wie gegen ne wand zu pinkeln und zu hoffen in absehbarer zeit ein loch gebohrt zu haben.
 
Zuletzt bearbeitet:
bleiben immer noch die Zusammenhänge^^

/edit bezüglich deines edits
Ich hab auch nix gegen offizielle Statements, ich hab was gegen fehlinterpretieren. Im offiziellen statement steht nix von einem Chipredisign und verwerfen eines chips. Vielleicht solltest du meine Beiträge vorher lesen, anstatt mir "helfen" zu wollen, ich hab um Hilfe nicht gebeten.
 
Zuletzt bearbeitet:
Die türkische Website Donanimhaber berichtet, dass Nvidias neue GeForce GTX 480 angeblich eine maximale Verlustleistung (TDP) von 298 Watt für sich verbuchen soll.

Herkunft der Aussage

Wenn nur etwas war dran wäre, wäre das schon Hammer auch über 200 bis 250Watt wären für eine Singel Karte schon gewaltig. In 3-5 Jahren haben wir dann bestimmt nur noch über 600Watt Netzteil drin und bei zwei Karten betrieb über 1KW Netzteile. Wenn man denkt was die 2005/2006 an TDP Gezogen haben noch.
 
Du willst nicht wissen, was eine HD2900XT oder 8800 Ultra verpulvert haben. Die Radeon kommt auf 220W, die Geforce auf 190 Watt.

Da sind 300 Watt bei drei- bis vierfacher Leistung geradezu sparsam.
 
Ähem... nein?
Die Fertigungsprozesse sind erheblich besser geworden.
Du kannst eine GTX380, sorry, GTX480 nicht mit einer 8800GTX vergleichen.
Wenn musst du die Performance pro Watt mit einer HD58XX vergleichen.
Und da sieht es ja nicht danach aus, als würde NV irgendwelche Bäumchen ausreißen.

Grüße vom:
Jokener
 
Ähem ... doch.

Fertigungsprozess hin oder her, wird bewegen uns mittlerweile auf einem Level, welches gerade bei den HD5k extrem niedrig ist. Vor allem wenn man bedenkt, dass RV870 auf R600 basiert. Von der absoluten Leistungsaufnahme her war die HD2900 XT jahrelang ungeschlagen. Von Fps/Watt habe ich nicht gesprochen.
 
nille02 schrieb:
...
Und das Argument mit C++ ist nur Marketing geblubber. C++ ist nur eine Sprache die von einem Compiler für die Zielplattform übersetzt wird.
Der erste Satz ist ziemlicher Quatsch, auch wenn der zweite richtig ist, denn was Nvidia mit Fermi einführt ist eben gerade ein C++ Compiler für CUDA. Es gibt keinen C++ Compiler für Stream und keinen C++ Compiler für OpenCL, sowas existiert bisher nicht, es wird von Nvidia für CUDA mit Fermi eingeführt, für OpenCL kommt sowas vielleicht irgendwann mal mit OpenCL 2.0. Um Programme für OpenCL zu schreiben musst du derzeit in "OpenCL C" (und in keiner anderen Sprache) schreiben, objektorientiertes Programmieren ist bisher nicht möglich.

P.S.
Weil OpenCL von Apple ins Leben gerufen wurde und Apple in Zukunft auch massiv auf OpenCL setzen will, gehe ich mal davon aus, dass OpenCL irgendwann um ObjC-Funktionen erweitert werden wird, aber das ist spekulative Zukunftsmusik, der C++ Compiler im CUDA-SDK für Fermi ist dagegen bereits definitiv sicher.
 
Zuletzt bearbeitet:
Wenn eine GTX480 im Fertigungsprozess einer 8800GTX oder 2900XT ähnlich viel verbrauchen würde wie eine der beiden Karten, dann wäre das eine Steigerung.
Du kannst ja auch nicht sagen, dass ein Golf VI im Vergleich zu einem Golf I teuer ist.
Man muss eine Referenz wählen, die die zu vergleichenden Werte zueinander gewichtet.

Und da liegt der jeweilige Konkurrent nahe.
Eine 8800GTX war also im Vergleich zu einer 2900XT sparsamER.
Eine HD5870 ist aber ebenso im Vergleich zur GTX480 sparsamER.

Das der RV870 sparsamer ist als der R600 ist liegt ja nicht an einem gigantisch gutem RV870, viel eher an einem Bug im R600.
Auch bei den HD48XX Karten hatte ATi ja das Problem, den RAM nicht richtig runtertakten zu können und so weiter.

Nicht das der RV870 nicht sparsam ist, das ist er definitv.
Man darf ihn aber nicht in den Himmel loben, weil man ihn mit einer falschen Referenz vergleicht.

Wie gesagt, die GTX480 ist im Vergleich zur 8800GTX meiner Meinung nach nicht besonders sparsam.
Es wurden seither ein paar Sachen umgesetzt, aber die Fehler im Chipdesign machen die (durchaus vorhandenen) guten Ideen im 480'er mehr als zunichte.
Prozessbereinigt und auf die Leistung pro Watt gesehen ist die GTX480 dann nur noch minimal besser als eine 8800GTX.

Grüße vom:
Jokener
 
Und das soll ein Probleme sein, wenn die GTX480 im Leistungs/Verbrauchsverhältnis nur minimal besser als die 8800GTX ist?
Wenn die GTX480 dann genauso eine Überkarte wird, wie die 8800GTX damals, sollte es kein Problem darstellen. ;)(hoffen wir es mal)
 
@y33H@: eine 8800Ultra war ja auch eine OC Modell wie eine HD4890.Wenn man eine GTX480 auch so übertakten würde wären nicht wie bei der 880ultra 220 sonder 350Watt Verlustleistung sprechen.

Wie haben die das gerade eben bei mir bei der Dokumentation Home2009 gesagt (passend dazu^^)

Schneller und immer schneller, je schneller die Entwicklung voran geht um so größer wird der Hunger an Energie.
 
@airbag:

Ja...
Diese Hoffnungen haben doch wohl mittlerweile nur noch die allergrünsten Fanboys.
In meinem alten Rechner war ja eine 8800GTS drinnen, ich hab nicht aus Prinzip was gegen nV.
Aber aus den letzten 9 Monaten gibt es doch keine einzige seriöse News, die eine Überkarte vermuten lässt.

Man kann nur noch hoffen das, wie bei der HD3k Serie von ATi, dies ein Schritt in die richtige Richtung ist.
Das gute Ideen drin stecken und man halt nicht alles auf einmal schaffen konnte. (der Fermi ist zwar nicht ganz mit der 2900XT zu vergleichen, aber die Entwicklung eben schon)
Wenn nV also aus den schier endlosen Fehlern bei der GTX480 etwas lernt und dann bei der nächsten Generation was richtig macht, dann wird das die größte Leistung von Fermi sein.
Aber genauso wie die HD3k Serie von ATi keine Überkarten hatte, genauso wird die GTX4XX Serie keine Überkarten enthalten.

Grüße vom:
Jokener
 
@Tekpoint
Eine Takterhöhung muss nicht zwangsläufig eine höhere TDP oder einen höheren Verbrauch mit sich bringen.
Vor allem wenn Nvidia gegebenenfalls bei einer "ultra" Version ein neues Stepping rausbringt, wodurch bei weniger Spannung der gleiche Takt geschafft wird.
edit:
@Jokener

Wenn ich mich nicht irre gab es in den letzen MOnaten gar keine wirklich seriöse News.(die von Nvidia selber mal ausgeklammert, weil diese sogut wie nichts aussagen)-
 
Jokener schrieb:
Das der RV870 sparsamer ist als der R600 ist liegt ja nicht an einem gigantisch gutem RV870, viel eher an einem Bug im R600. Auch bei den HD48XX Karten hatte ATi ja das Problem, den RAM nicht richtig runtertakten zu können und so weiter.
Hast du eigentlich Ahnung von dem, worüber du redest? :rolleyes: R600 bzw. HD2900 XT säuft load soviel, weil es ein 80-nm-Chip mit hoher Spannung samt fetten 512-Bit-SI ist. Und dass sich der GDDR5 idle nicht runter taktet, hat wohl kaum etwas mit der 3D-Leistungsaufnahme zu tun :rolleyes: Zumal das laut AMD eine Design-Entscheidung war, kein Bug!
Jokener schrieb:
Man muss eine Referenz wählen, die die zu vergleichenden Werte zueinander gewichtet.
Nein, muss ich nicht. Denn Tekpoint sprach schlicht über die absolute Leistungsaufnahme und ich habe einzig angemerkt, dass die HD2900 XT vor Jahren schon böse viel Strom gezogen hat.
Jokener schrieb:
Es wurden seither ein paar Sachen umgesetzt, aber die Fehler [Anmerkung: laut dir "schier endlose viele Fehler"] im Chipdesign machen die (durchaus vorhandenen) guten Ideen im 480'er mehr als zunichte.
Dann fang mal an die Fehler aufzuzählen. Ich bin gespannt.
 
@airbag:
Da ist halt noch die Frage, ob man es mit einem reinen Stepping hinbekommen kann.
ATI hat ja beim Design der HD5XXX die Schwächen des TSMC-Prozesses schon auf einer ganz anderen Ebene berücksichtigt.
Wenn man so tiefgreifende Änderungen vornimmt, dann ist das mehr als nur ein Stepping.
Das wäre zwar keine komplett neue Karte, aber definitiv mehr als nur ein Stepping.
Nichtmal der Schritt von GT200 zu GT200b wäre vergleichbar, da ist schon etwas mehr Arbeit angesagt.

Grüße vom:
Jokener
 
Ja das wäre wirklich tiefgreifend, was ich auch nicht glaube dass Nvidia dies schafft.

Aber jetzt mal aus Megafanboysicht ;)gesehen, kann man sich auch ein ähnliches Szenario wie auch bei den Ersten i7 920 denken, die wie die aus dem CB Test totale Krüppel waren und es sich im Verlauf deutlich gebessert hat.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben