ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Deckt sich ja mit dem was ich auch meine - nur wo hast du in meinen Beiträge etwas über Texturfüllraten gefunden wo du mir nicht zustimmst?
 
@ complication
irgendwas hast Du falsch verstanden!
Hier im Forum grassiert bei vielen die Meinung, dass man keine 5870 kaufen braucht, weil die 5850 ja locker auf das Niveau der 5870 zu bringen ist.

Und genau hier habe ich gesagt das dies eben nicht so ist!

Schaut man mal herum, dann tun sich für Otto-Normal-Übertakter hier etliche Probleme auf, die man zwar beseitigen kann indem man das 5870er Bios auf die 5850er flashed und gleichzeitig auch noch das Glück haben muss, dass die Karte ein weiteres OC mitmacht - wie wir ja alle wissen, ist jede Karte unterschiedlich und zu sagen, dass die 5850 "mal eben" auf das Level der 5870 gebracht werden kann ist schlicht nicht wahr.

Das es bei dieser oder jener Karte durch Extrem-OC oder mit Wasserkühlung funktioniert auf das Level oder vielleicht 2-3 % höher zu kommen, wird wohl möglich sein, es bleibt aber eine Ausnahme!

bei 2 von 3 Benchmarks ist die 5850 OC vorne
bei Crysis genau gleich; bei Battleforge um 1,5 fps hinten; Dawn of War um 0,7 vorne
Da ist für mich keine Führung der 5850 erkennbar!
 
@Fetter Fettsack: interessanter link. schade, dass die nt-empfehlungen des herstellers nichts aussagen. 550 watt kann auch ein 550 watt lc-power sein, das man auch spielend mit ner 2900xt in rauch auflösen kann. und 500 watt bei ner 5850 ist auch schon sehr großzügig als minimum bemessen.
es ist schade, dass die hersteller keine amperezahlen angeben.

interessant ist aber, dass ein 550 watt nt nicht sonderlich abgehoben ist und somit der verbrauch der gtx470 vermutlich doch recht human ausfallen dürfte...
 
...wenn die Hälfte der Polymorphen Engines fehlen, ist da schon Schicht im Schacht.

die vergleichdaten hab ich schnell auf wiki gesucht um die vermuteten zahlen mit der 200er reihe vergleichen zu können

die 60 gtexel/s stammen von NV sind aber nur ne ca angabe (ich glaube der wortlaut war ungefähr um 10% gesteigert)

EDIT: (gott so viele editsheute) ein halbierter gf100 würde übrigens mit ca 30 gtexel/s recht deutlich über der 240 mit ca 17 gtexel/s liegen

EDIT2: tjo und schon ein FAIL war die gt240 mit den 17 gtexel XD die gts240 hat etwa 37 gtexel ^^;;;
 
Zuletzt bearbeitet:
der artikel spekuliert zwar auf leistung ähnlich der 5870, aber das wage ich noch zu bezweifeln, insbesondere falls der preis stimmen sollte. das spricht eher für die leistung der 5850. oder es wäre eine kampfansage an amd, was ich mir aber angesichts der schweren lage von nvidia derzeit kaum vorstellen kann. da hätte nvidia ganz klar das nachsehen.
 
Complication schrieb:
bei 2 von 3 Benchmarks ist die 5850 OC vorne. (auch wenn ich das eher als Gleichwertig bezeichnen würde bei den geringen Unterschieden)
Lars_SHG schrieb:
bei Crysis genau gleich; bei Battleforge um 1,5 fps hinten; Dawn of War um 0,7 vorne
Da ist für mich keine Führung der 5850 erkennbar!
ähm...ja... wen du das Zitat von mit nicht abschneidest sind wir gleicher Meinung - ich weiss auch absolut nicht worum es dir geht und was das überhaupt hier im Thread zu suchen hat.

"Otto-Normal-Übertakter" ist aber sicherlich eine Wortkonstruktion die ich noch nicht gelesen hatte und auch in sich meiner Meinung gar keinen Sinn macht - wohl so etwas ähnliches wie ein "Durchschnitts-Experte" oder ein "Nischen-Mainstream" ;). Für OC gibt es doch einen eigenen Bereich im Forum.

@Neo
Ich bezog das auf Tessellation mit den PE - solange da 16/14 PE vorhanden sind kann man sicherlich verschmerzen wenn 5-10 anderes machen müssen. Doch wenn man nur noch 6-8 Polymorphe Engines hat wird dies nicht die halbe Tessellation Performance ergeben, da ja immer noch andere Grundaufgaben anstehen die Zeit beanspruchen. Atis Design skaliert die Tessellation nicht nach unten mit den kleineren Karten - also hat Nvidia eine Grenze für DX11 nach unten, wo eben kein Tessellation mehr möglich ist weil zu wenig PE. Kein Tessellation=kein DX11 auf der Box.
 
mir kommt da grade ein gedanke, den ich mal in den raum werfen möchte ...

die 480 ist ja als "vollfermi" im gespräch
die 460 war ja als mit 2 abgeschalteten klustern gesehen

wäre es denkbar, das sie so ne enge abstufungen reinbringen würden?:

480 16 kluster, voller takt
470 15 kluster, geringerer takt als 480
460 14 kluster, geringerer takt als 470
450 13 kluster, geringerer takt als 460
440 12 kluster, geringerer takt als 450

einfach nur um ihre gesamt yield zahlen für diese generation im griff zu behalten? (und mit dem netten nebeneffekt, das eine 440/450 dank geringer taktzahlen auch noch recht kühl sein dürften im vergleich zum rest)

denn mittlerweile klang es ja so:

480 16 kluster, voller takt
470 14 kluster, voller takt
460 14 kluster, geringerer takt als 470
450 12 kluster, takt einer 460
440 12 kluster, geringerer takt als 450

... oder haltet ihr das für unwahrscheinlich?

EDIT:
@Complication

ach das meintest du! hmm ja tesselation ist so ne frage ... gehen wir mal davon aus, das das design ihnen das 1,5 fache der leistung der amds bei nem vollfermi erlaubt (nv behauptet ja steif und fest es wäre das 6fache, aber das halte ich für unrealistisch), dann lägen sie mit 11 klustern noch leicht darüber und mit 10 klustern leicht unter der amd tesselations leistung, ein halbierter fermi mit 8 klustern läge ungefär bei 75% der amd leistung ... da ich aber keine ahnung hab, wie stark die auslastung bei dieser leistungklasse ist, kann ich nur rein aus der theorie sagen, dass sie dann zumindest merklich schwächer sein dürfte, die frage sit aber, ob die restliche gpu überhaupt die leistung dann noch nutzen kann ...
 
Zuletzt bearbeitet:
Und wie würdest du diese Preislich Abstufen?
Mit einer solchen Abstufung kannst du nicht den kompletten Preisbereich abdecken, da ja die Produktionskosten nicht differieren wenn nur Bereiche abgeschaltet werden - Was AMD mit Phenom macht ist eine einzigartige Sache in diesem Preissegment und bereitet Intel grosse Kopfschmerzen in der Preisgestaltung. Das kann man nicht einfach beliebig nachmachen wenn etwas mit der Architektur schief läuft.
 
was ich mir aber angesichts der schweren lage von nvidia derzeit kaum vorstellen kann.

Betrifft diese aber denn nicht eigentlich nur den Desktop/Notebookgraphikmarkt? Im Profibereich sollen sie doch recht gut aufgestellt sein.

Allerdings, wie dem nun auch sei, mir gefiele eine solche preisliche Entwicklung, da dann wohl auch die ATi-Karten sinken würden und ich mir günstig eine leistungsfähige Karte anschaffen kann.
 
@Complication

ist eben die frage ob sie wirklich NUR resteverwertugn machen, oder es einen 2. oder sogar 3. chip geben wird

btw:
unter der vorraussetzung, dass es 2 chips WÜRDEN und die 440 entfällt, da zu schwach für den vorerst angestrebten bereich könnte es so aussehen:

480 16 kluster, gf100
470 14 kluster, gf100
460 12 kluster, gf104
450 10 kluster, gf104

halte ich spontan für die warscheinlichste variante (und mir ist aufgefallen das ich die doch glatt vergessen hatte zu erwähnen XD ... bin aktuell etwas neben der spur ^^; sorry)
 

Anhänge

  • gtx280_sabrepc.PNG
    gtx280_sabrepc.PNG
    90,7 KB · Aufrufe: 477
Zuletzt bearbeitet:
@Jocotty

wenn ich mich recht entsinne ist das ein originalzitat eines nv mitarbeiters auf die frage wie schnell der gf100 wird ;)

aber irgendwie gehen die meisten (mich eingeschlossen) davon aus das die gtx 480 und evtl sogar die gtx470 schneller werden als die 5870 ...
 
Es wäre auch absolut Nvidia Untypisch, ne Karte mit der Leistung (über) einer 5870 zum Preis einer 5850 anzubieten. Das wäre entgegen jeder Preisgestaltung der letzten 5, wenn nicht 10 Jahre.

naja ati hat seine preisstrategie ja auch mit der hd4k massiv geändert. wärend sie die 2900xt deutlich teurer als die 8800gts 640 angeboten haben und die 3870 genau so teuer wie die 8800gt, war die 4870 bedeutend billiger zu begin als die gtx260. durch diese neue preisstrategie hat nvidia gewaltig federn gelassen. es ist also nicht vollkommen ausgeschlossen, dass nvidia ebenfalls seine preisstrategie ändert. aber imho in diesem falle sehr unwahrscheinlich, da die offensichtlichen fertigungsprobleme wohl einen günstigen preis von vornherein ausschließen dürften...
 
Weiß jemand wie das ist?
Wenn ich das Teil jetzt bei diesem komischen Shop für den Preis vorbestelle, muss ich es auch für den Preis bekommen?
Also wie sind die US Gesetze so?
Meint ihr die Preise sind von denen geraten oder die haben schon Preislisten?
 
ich hab jetzt mal reingeschaut: GTX480 2GB (WTF????)

aufgrund der bandbreite wird es keine 2GB variante geben. 1,5GB und 3GB werden erwartet ... spricht schonmal nicht für den shop -.^

und ich glaub mich zu erinnern, das wenn du ohne preis bestellst, du automatisch ihren preis akzeptierst.

EDIT: ach da sit ja ein preis ... 670 dollar ... hmm ich würde drauf wetten, das du draufzahlst wenn du da bestellst (aber ob du dann überhaupt was geliefert bekommst... das sieht seltsam aus iwie ..)
 
Zuletzt bearbeitet:
Die HD2900XT war preislich zu Beginn fast auf der Höhe der 8800 GTS positioniert, bei ca. 400 Euro, gab aber sehr schnell stark nach im Preis: https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/38/#abschnitt_fazit sowie https://www.computerbase.de/preisvergleich/?phist=257000&age=2000. Ati hätte sicher gern mehr für die Karte verlangt, aber für 600 Steine hätte sie auch fast niemand gekauft, so war sie seinerzeit eine Alternative zur 88GTS 640, mit einigen Schwächen im Direktvergleich (Lärm, Stromverbauch).

Die Preispolitik wird also sicher ganz maßgeblich auch von der Leistung abhängen. Keiner kauft, außer einigen Fanboys, eine GTX 480, wenn sie sich nicht von der 5870 absetzen kann, aber trotzdem 100-150 Euro teurer sein wird. Sowas wird nvidia einkalkulieren müssen, notgedrungen, wie seinerzeit bei der GTX 260/80, bei denen man innerhalb kürzester Zeit massive Korrekturen vornehmen musste und infolgedessen die 55nm-Varianten kostengünstiger produzierte, auch hinsichtlich PCB, Kühlung und Komponenten.

@zu dem sabre.pc-"Angebot": 2GB VRAM sind schon mal ausgeschlossen, da dies nicht mit einem 384-Bit-Interface realisierbar ist. Das war wohl ein gewitzter Angestellter, der ein paar Klicks auf die Seite locken wollte ... :D
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben