ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Unyu schrieb:
Allerdings was willst du uns mit den 10% Mehrtakt bei höherer Spannung mitteilen? Solange Nvidias Antwort nicht entgültig ist, bringen die Ahnung der 10% garnichts.

http://www.computerworld.com/s/arti...insignificant_Nvidia_says?source=rss_hardware
Interessant übersetzt, angefangen bei der Überschrift. Der Rest bleibt natürlich Marketing
Auf die Unterschiede habe ich hingewiesen, weil manche in den Daten so eine Kaffeesatzleserei betreiben -> da sind 10% unterschied die gleich gesetzte werden (GTX275/GTX280) dort kommen 10% durch bessere Treiber (Catalyst) und am Schluß ist der Fermi immer mindestens 80% schneller als alles andere was am Markt ist ;) - sonst nichts ;)

Mit der Übersetzung hast du recht - das liest sich schon anders.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Warum sollen Multi GPU´s den Single GPU Markt zerstören?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Heckman
Dazu gibt es doch nun wirklich mehr als genug Threads - bitte hier nicht auch noch :freak:

Also für mich verdichten sich nun die Hinweise, dass die Fermi mit den Taktraten Probleme haben:
http://www.pcgameshardware.de/aid,7...ngsfunktion-bei-GF100-Fermi/Grafikkarte/News/
Wird dies zu einem der ersten interessanten Features der kommenden Fermi-Geforces für PC-Spieler? Laut dem Facebook-Profil von Nvidia werden deren kommende Directx-11-Karten mit einer hardwareseitigen Übertaktungsfunktion ausgestattet sein. Gemäß Eigenaussage soll "extremes Overclocking per GPU-Spannungserhöhung" möglich sein.
Ich lese da im Subtext, dass hohe Raten zwar möglich sind, aber nicht mit den Spannungen an die man per ATX und TDP gebunden ist. Oder man hat ein Hitzeproblem, was auch zu Taktproblemen führen kann. Warum sollte man sonst Performance an Übertakter verschenken, und das vor dem Release?

Its not a bug its a feature
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Könnte in der Tat ein Hinweis darauf sein ähnlich wie bei der XFX Black Edition der HD5970.
Andererseits könnte es auch heissen nV hat hardwareseitig viele Einstellungsmöglichkeiten verbaut für einen effizienten 2D Modus. Diesen dann an OCer freigeben ist evtl. garnicht ungeschickt. Immerhin geht dann die Garantie für eine - sicher nicht billige - High-End Karte flötten. Abgesehen davon ist ja nicht bekannt welche Karten diese Möglichkeit haben. Wenn sie z.B. nur dem Spitzenmodell zur Verfügung stehen macht man sich damit keine Konkurrenz.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Buntstift schrieb:
Ergänzung ()

@ SCREEMER:
wenn du schon so toll rumrechnest dann auch richtig.
die durchschnittliche leistungssteigerung dürfte wenn dann ~ 70% betragen und nicht 80-100...also wenn man dich ernst nehmen soll, dann verfälsch nicht deine eignenen "berechnungen" .....omg
vielleicht ist dir aufgefallen, dass ich eine quelle verlinkt habe und das ganze gequotet ist? was folgern wir daraus? richtig, das ist nicht von mir. kannst dich gern mit den jungs ausm 3dcenter rumschlagen. da weht ein anderer wind als hier.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Unyu schrieb:
Wobei man dann genausogut Fermi canceln und auf den Refresh setzen könnte.
Nur bisher sehe ich keinen Grund warum man A3 nicht fertigen sollte. Man hätte auch A2 zur Produktion schicken können, aber bekanntermaßen hat TSMC noch Probleme bei 40nm Monsterchips.

Könnte man, nur was verkauft man dann als Fermi Tesla? Nen Refresh dürfte bei weitem nicht an die vollmundig angekündigten Werte des Fermi heran reichen was GPGPU betrifft. Somit ist dieser Weg vorerst einmal verbaut.

Was die Gründe angeht, darüber werden wir nur mutmaßen können, seitens Nvidia werden wir hier sicher nichts erfahren (es sei denn es geschieht noch ein Wunder und sie können zu Weihnachten noch den Fermi ausliefern :D )
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Schaffe89
Kennst du die HD 5970? Früher gabs für das Geld eine Singe GPU High-End Karte.
Heute eben nur noch MGPU mit doppelt verbauten Komponenten die dem Nutzer im Endeffekt nichts bringen. (z.b. 2x1GiB oder 2x Spannungsversorgung)

Antimon
Mit Refresh meine ich den Refresh des Fermi.
Klingt vielleicht seltsam, aber die Erfahrung zeigt doch, das sich ein Refresh nicht verschieben muss, wenn das Ausgangprodukt sich verschoben wurde. Ich habe da z.b. die X1800 und X1900 im Sinn.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Complication

also für mich hört sich das an wie der turbomodus von intel o.o~
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Eher nicht neo, da ja der Turbomodus nicht die Spannung ändert sondern die Taktrate. Eine Änderung der Spannung ist aber was Nvidia angekündigt hat. Das heisst dann werden auch höhere Taktraten möglich. Und das heisst ebenfalls, dass die Garantie weg ist - ausser Nvidia erhält die Garantie aufrecht, was einmalig in der IT-Geschichte wäre und tatsächlich eine absolute Sensation wäre. :)

Das wäre wirklich ein Hammer-Feature. Overclocking mit Garantie erhalt!
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

So blöd ist keine Firma.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Keine Garantie auf Vmods ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Hallo
Complication schrieb:
Das wäre wirklich ein Hammer-Feature
Das hat doch nichts mit Hammer Feature zu tun, NVidia gibt den Kiddies einfach nur ein neues hübsch verpacktes aber dennoch sinnloses Spielzeug. Da läßt NVidia eine neue Karte mit gesenktem Takt laufen und die Marketingabteilung verkauft den normalen Standardtakt als HyperMegaCoolen übertakteten Takt (Schön mit Bildchen wo die Nadel voll im roten Bereich ist) , und die Übertakter machen sich ins Höschen.
Grüße Tomi
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das Feature impliziert nur, dass die Taktraten nicht sehr hoch sind.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was hier wieder reininterpretiert wird...
Es besteht nur die Möglichkeit, das Nvidia auf AMDs Marketingpressetool für die HD 5970 antwortet.
Macht sich halt gut in den Tests, mal ausgenommen bei z.b. kritischen Faktenmagazinen wie ht4u.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dass dies als Antwort gilt auf ein pressetool ist aber auch ziemlich viel hineininterpretiert.
Es ist ziemlich neu 2 Monate vor dem Release mit einem Volt Mod zu werben.
Zudem wars bei ATI nur deswegen weil die Multi GPU Karte die Taktraten wegen des Verbrauchs nicht fahren konnte. Zudem gibts Gerüchte dazu, dass die Taktraten nicht sonderlich hoch sind. (Shadertakt).
Find ich eher naheliegend als reininterpretiert. Trotzdem sei es nur Spekulatius.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Man kann auch mal neue Dinge probieren, ansonsten gibt es keinen Grund wenn nicht zum eigenen Vorteil ein solches Instrument einzubauen. Wobei, da steht nichteinmal was von Instrument. Da steht Support.
Genau genommen sehe ich keine Werbung. Ich sehe, das altbekannte Möglichkeiten auch mit GF100 möglich sein werden. Spannungsveränderungen waren nicht immer möglich, wurde immer wieder gerne gekürzt.
Das ganze wurde noch gewürzt mit dem Wörtchen "extreme" und alle Welt ist begeistert.

Deine Taktgeschichte ist da weiterhergeholt. Man baut nicht den Support der Spannungsveränderung ein, weil der Takt aus TDP Gründen nicht stimmt. Der Takt war zu dem Zeitpunkt der Entscheidung diesen Support aufrechtzuerhalten nicht entschieden.
Man baut den Support der Spannungsveränderung ein, wenn es nicht auf jeden Cent ankommt oder man bei der Presse gut dastehen will.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Eben, deswegen verwunderlich warum man jetzt mit Volt Mods wirbt. Oder es zumindest ankündigt.
ATI wollte nicht 2x 8pin Stecker drannbauen, deswegen der geringere Takt/Spannung.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

AMD musste die Spannung senken, daraus folgernd auch den Takt.

Deine Argumentation hat entscheidendene Haken. Warum gabs das Tool nicht bei der HD 5870, die thermisch weniger am Limit agiert?
Mit Mehrspannung gehts meistens noch etwas höher.
Bei der Meldung steht "Support" und nicht "Tool". Wie wir wissen gabs nicht immer "Support".
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben