ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
silent-efficiency schrieb:
vielleicht erklärst du mir mal die Diskrepanz zwischen der Aussage "performence will be good" und "Hot, buggy and far too slow".

!milamber hat das mal wieder sehr gut beantwortet...

:daumen: (mal wieder)

Der eine sieht halt die Performance auf Niveau einer 5870 als "good" an, der andere angesichts des Hypes als "far too slow". Ich tendiere zu letzterem. Sicher liegt die Perf. der 480 um Welten über der meiner 3870, aber insgesamt hat wohl jeder(!) deutlich mehr erwartet.

Ich kann mich an jede Menge Posts von Leuten erinnern, die die 5870 als total enttäuschend angesehen haben. Weil sie nur (beliebige Zahle eintragen)% schneller als die 285 war. Und jetzt soll die Perf. der 480, die vorraussichtl. 5% schneller als die 5870 werden wird "good" sein? Absolut ja, relativ auf keinen Fall. Enttäuschung^10, wenn du mich fragst...


y33H@ schrieb:
Er ist über 650 MHz Core-Takt überrascht und hätte mehr erwartet? :lol:

Das ist auf dem Level der GTX285 ... so wie die HD5870 den gleichen Chiptakt bei doppelten Units hat. Und sofern das Design nicht komplett hinüber ist, sollten die gemunkelten Units bei 650 MHz Core der GTX470 locker reichen, um über der HD5870 zu liegen. Und HD6k sind btw noch in weiter Ferne.

mmmhhh. Die 4870 hat 750MHz, die 5870 850. Korrigiere mich wenn ich falsch liege, aber ich kann da ne deutliche Steigerung sehen...

Wie siehts aus wenn Charlies Quellen recht behalten und die 480 mit 625 oder gar nur 600MHz kommt? Reicht das immer noch locker bei der 470, um die 5870 abzuhängen?

Meinst du, NV hat die 7 aus Zufall gewählt? Die wollen immerhin noch mit der 5770 konkurrieren offensichtlich.

:evillol:

/Sarkasmus aus.

Tante Edit:

Soviel zum Theman auf SA würde nur NV gebasht

http://www.semiaccurate.com/2010/02/23/radeon-hd-5830-details-leak/

"We’re a little bit disappointed with the specifications of the HD5830"
 
Zuletzt bearbeitet:
Von einer HD5890 ist nichts, aber auch nichts bekannt, nicht das kleinste Gerücht. Nur in Foren nennen "AMD-affine" User diese Karte gerne als (vermeintlichen) Fermi-Konkurrent. Ich meine, AMD sieht die HD4890 als HD5870-Vorgänger, zumindest war das auf einem PDF iirc *such*
 
y33H@ schrieb:
Das ist auf dem Level der GTX285 ... so wie die HD5870 den gleichen Chiptakt bei doppelten Units hat. Und sofern das Design nicht komplett hinüber ist, sollten die gemunkelten Units bei 650 MHz Core der GTX470 locker reichen, um über der HD5870 zu liegen. Und HD6k sind btw noch in weiter Ferne.

Achso? Was war denn nun mit dem Hotclocktakt? Doppelter GPC oder doppelter Shadertakt?
Die erwarteten 1,7ghz wurden eben nicht erreicht, deswegen wird wohl der Guru3D Artikel von niedrigen Taktraten sprechen. ;-)
 
Es ist doch schon beinahe ein Naturgesetz, dass ich komplexere Hardware bzw. größere Chips nicht auf utopische Taktraten prügeln kann.

Aber egal ... lassen wir doch einfach mal ein paar Zahlen sprechen:
G70 (7800GTX): 430MHz, bei 303Mio Transistoren, 110nm
G71 (7900GT): 550MHz, bei 278Mio. Transistoren, 90nm
G80 (8800Ultra): 612MHz, bei 681Mio Transistoren, 90nm
(80nm übersprungen)
G92 (9800GTX): 675MHz, bei 754Mio. Transistoren, 65nm
G92b (9800GTX+): 738MHz, bei 754Mio. Transistoren, 55nm
GT200 (GTX280): 602MHz, bei 1,4Mrd. Transistoren, 65nm (Also hier wirds schon schwierig den direkten Vorgänger als Maßstab zu setzten)
GT200b (GTX285): 648MHz, bei 1,4Mrd. Transistoren, 55nm
GF100 (GTX480): blubber, bei ca. 3Mrd. Transistoren, 40nm

Man kann von einem Chip, das so ein großes komplexes Die aufweist, nicht erwarten, dass es die Gigahertzschwelle knackt. Dieses, der Fertigungsprozess, thermische Leistungsabgabe und Verlustleistung gehen Hand in Hand. Ich halte in anbetracht eines G92->GT200 rd. 600MHz für den GF100 für realistisch.

Den Kindergarten über das Palaber, welche Karte denn welchen Nachfolger hat, überlasse ich euch :)
 
Zuletzt bearbeitet:
y33H@ schrieb:
Von einer HD5890 ist nichts, aber auch nichts bekannt, nicht das kleinste Gerücht.

Natürlich weißt du bereits mehr, du darfst es nur nicht sagen :lol:

Und falls du wider erwarten wirklich nix weißt dann frag doch mal Ailuros im 3DC, der hat bereits mehrmals verlauten lassen das die Karte Ende Mai /Anfang Juni kommen wird ;)
 
@ johnieboy

Dann weiß (?) Ail mehr als ich. Kommt gelegentlich vor [andere/bessere Connections] ;-)

Jocotty schrieb:
Und warum schreibt ihr dann genau dieses Gerücht in euren Artikel über die Fermi?
Hmmm, Refresh meint eher HD6k denn HD5890.
Jocotty schrieb:
PCGH Nvidia + AMD affine?
Neutrale Mitte :)
 
Zuletzt bearbeitet:
@AffenJack
Das istn ziemlich auffälliger Fake, allein die Grafik lässt darauf schließen, da die niemals von Nvidia selbst erstellt sein wird;
  • Worlds Fastest Performance in so einer Checkliste einzufügen wäre doch recht albern
  • Die 3D und Multi Monitor 3D Punkte entsprechen nicht der Wahrheit, da dies mit iZ3D schon vor 3D Vision (Surround) funktionierte
  • Bei GPU Computing fehlt Stream SDK, und Nvidia hätte mit sicherheit CUDA vor OpenCL, und Direct Compute augezählt
  • Der Punkt mit den Physik Effekten entspricht auch nicht wirklich der Wahrheit, da es auch andere Physik Bibliotheken gibt, und diese zumindest im CPU Bereich ebenso oft, wenn nicht öfter implementiert wurden als PhysX. Und GPU Support Unterstützen die mittlerweile auch.

Also wenn die Folie wirklich von Nvidia kommen sollte, es wäre nen ziemliches Eigentor.


Schaffe89 schrieb:
@ Milamber! Ich hab den thread gelesen und wie gesagt nichts feststellen können, was silent-efficiency hier irgendwie als Intel-affinen hinstellt. Ich hab auch nur auf das Argument gepostet, dass der Phenom 975 sinnlos sei, was bei einem guten Preis nicht gegeben ist.

Ich hab Posts von Whozzy dir zu geschoben, hab mich verschaut sorry.
Das ändert jedoch nichts an meiner Aussage bzw. Behauptung, das war auch nur einer von vielen Posts, in einem von vielen Threads. Aber dieser Thread reicht um die Intel Affinität erkennen zu können.

Wie auch immer, ich hab zu diesem Thema gerade aktuell auch hier nochmal etwas geschrieben; https://www.computerbase.de/forum/t...6-ab-26-april-2010.705232/page-4#post-7447282
womit ich imho so ziemlich alles relevante Abedeckt habe.
 
hab mal meine Glaskugel gefragt ;D

sie sagt 24 25 26 märz ;) bis die GTX470/480 kommt

wenns stimmt bekomm ich ein keks ;)

die meisten erwarten einfach zu viel ''PS'' von der GTX480 ich denke so 10-25 % schneller als HD 5870
 
Zuletzt bearbeitet:
Naja wie erwartet ist die Leistung sehr ernüchternd.
 
LuXon schrieb:
btt:
Wurden hier die Gerüchte schon gepostet, dass die GTX460 angeblich auf HD5850 niveau sind?
Finde ich immer wieder lustig wie die Meinungen zur Leistung 50-60% auseinanderliegen.
Jop, wurde schon gesagt.
Zusammengefasst
HD5850=460?
HD5850=470?
HD5870=470?
HD5870=480?
HD5870<480?
 
Zuletzt bearbeitet:
milamber! schrieb:
...
  • Worlds Fastest Performance in so einer Checkliste einzufügen wäre doch recht albern
  • Die 3D und Multi Monitor 3D Punkte entsprechen nicht der Wahrheit, da dies mit iZ3D schon vor 3D Vision (Surround) funktionierte
  • Bei GPU Computing fehlt Stream SDK, und Nvidia hätte mit sicherheit CUDA vor OpenCL, und Direct Compute augezählt
  • Der Punkt mit den Physik Effekten entspricht auch nicht wirklich der Wahrheit, da es auch andere Physik Bibliotheken gibt, und diese zumindest im CPU Bereich ebenso oft, wenn nicht öfter implementiert wurden als PhysX. Und GPU Support Unterstützen die mittlerweile auch.
...
Ich hab da grad ein Déja-Vu - kanns sein, dass wir so eine Folie mit diesen Punkten vor nem halben Jahr schonmal diskutierten? Naja, bis auf den letzten Punkt, der jetzt dazugekommen ist. Wenn ich mich richtig erinnere, sehe man daran ziemlich gut, wie lange "die Meute" schon auf Fermi wartet.
 
Ja, eben weil wir die ganzen PR-Sache von AMD mitgemacht haben. Und da kam für die Presse richtig viel, alles war toll und gut und super und fortschrittlich. Doch davon übrig geblieben ist quasi nichts. Ergo ist es PR only. Die Idee dahinter will ja auch gar keiner verurteilen, aber jede noch so tolle Idee muss auch umgesetzt werden, sonst ist sie halt nur PR. Und genau das ist/war DX 10.1


So, jetzt mal back to Topic pls und gleich ein neues Gerücht:
GeForce GTX 470 will be 20-25% better than GeForce GTX 285 http://vr-zone.com/forums/565049/geforce-gtx-470-will-be-20-25-better-than-geforce-gtx-285.html

Schlagt euch bitte damit weiter^^
 
wenn es so viel wird, würde es mich überraschen :)

Ich persöhnliche Vermutung ist momentan, dass die 480 etwas schneller ist als die HD5870 ist.
Von daher halte ich das "auf dem Niveau der 5970" selber für unglaubwürdig.
Das werde ich wohl auch erst einsehen, wenn zuverlässige Benchmarks das beweisen^^
Wäre es so, hätte Nvidia keinen Far Cry Benchmark mit so "niedrigen" Werten getzeigt..
 
Zuletzt bearbeitet:
Volker schrieb:
[...]
So, jetzt mal back to Topic pls und gleich ein neues Gerücht:
GeForce GTX 470 will be 20-25% better than GeForce GTX 285 http://vr-zone.com/forums/565049/geforce-gtx-470-will-be-20-25-better-than-geforce-gtx-285.html

Schlagt euch bitte damit weiter^^

Finde ich ein etwas merkwürdiges Gerücht. Die GTX470 wäre doch mit +25% zu ner GTX285 etwa auf dem Niveu einer HD5850. Gleichzeitig soll eine GTX480 knapp an eine HD5970 rankommen? Das würde - zumindest aus meiner Sicht - heissen, dass die GTX470 massiv langsamer ist als eine GTX480?
Wenn man den Meldungen bzgl. schlechter Chipausbeute & Co glauben soll könnte ich mir das zwar vorstellen (GTX480=Prestige-Karte / GTX470=Massenkarte), aber der "kleine" Preisunterschied aus der selben Quelle 500$ vs 600$ und die nah bei einander liegenden Namen sprechen doch eigentlich deutlich dagegen?
 
DerToast schrieb:
Finde ich ein etwas merkwürdiges Gerücht. Die GTX470 wäre doch mit +25% zu ner GTX285 etwa auf dem Niveu einer HD5850. Gleichzeitig soll eine GTX480 knapp an eine HD5970 rankommen? Das würde - zumindest aus meiner Sicht - heissen, dass die GTX470 massiv langsamer ist als eine GTX480?
Wenn man den Meldungen bzgl. schlechter Chipausbeute & Co glauben soll könnte ich mir das zwar vorstellen (GTX480=Prestige-Karte / GTX470=Massenkarte), aber der "kleine" Preisunterschied aus der selben Quelle 500$ vs 600$ und die nah bei einander liegenden Namen sprechen doch eigentlich deutlich dagegen?

Tjaaa, das sind halt Gerüchte. Die Nvidia-Hasser schreiben das, die Befürworter das andere. Was stimmt weiß wohl nichtmal Nvidia selbst ^^
Wir werden es in einem Monat sehen, und dann glaub ich es auch erst wenn das Ding hier direkt bei uns liegt :p
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben