ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich kann zwar kein chinesisch aber den Kommentar kann man glaube ich interpretieren:

130% fast as/than = 快30% 老p英文不行啊。。。

Ansonsten lässt das Eingangsposting darauf schließen, dass es sich "nur" um Unterschiede bei aktivierter Tesselation handeln könnte.

2010年,我来爆爆Geforce 3XX Unigine Heaven DX11中130% fast as 5870,其中Tessellation以倍数抛离对方

Warten wir´s ab, vor März wird´s eh nicht viel endgültiges geben.

/edit Bruder Google hilft, hier die Übersetzung des Threads. Ich für mein Teil würde sagen viel Wind um nichts, geht um den Unigine Heaven Bench auf der CES wenn ich´s recht verstanden hab.

*guckst du*
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

:cheerlead: Der Thread hat soeben die 1000er-Marke gerissen! :cheerlead:

BTT: Nuja, bin wirklich gespannt, ob Fermi soo stark wird, wie die HD5970. Meiner Meinung nach ist er grob geschätzt etwa so schnell wie die HD5870. Wie schon jemand vor mir gesagt hat, im Vergleich zum Vorgänger hat die HD5870 die Einheiten verdoppelt, was effektiv 70% an Mehrleistung ausmacht. Wie soll dann der Fermi soviel Leistung herzaubern, obwohl im Vergleich zum Vorgänger die Shader eben nicht verdoppelt werden?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ich lese da auch 30% gegenüber der 5870 raus. und das sicherlich unter nvidia-optimierten vorraussetzungen. 5970 dürfte wohl klar außer reichweite des fermi sein.

wow über 1.000 antworten und es hat sich noch nicht zum flamewar entwickelt. :D
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

was soll man dazu sagen? nach dem hype wars ja zu erwarten das alle aufspringen, aber darüber die nv lösung als fehlschlag abzutun ... ich hab meine brille seit jetzt ... 8 jahren? oder schon länger? und die technik funtioniert auch mit modernen nv grafikkarten immernoch (hab dazwischen immerhin 2 mal gewechselt und die brille weiter genutzt) ... der artikel ist ... was soll man sagen ... typisch ... geflame am stück ...

aber ja: jetzt hat auch der rest der welt den wunsch 3d anzubieten ... hat ja auch lange genug gedauert ;)

(btw gibts verschiedene, die die gleiche technik verwenden wie nv und lediglich auf infrarot oder funk als übertragung für das nötige signal bauen unter den ausstellern aber nicht weitersagen XDDD)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Raucherdackel schrieb:
:cheerlead: Der Thread hat soeben die 1000er-Marke gerissen! :cheerlead:

BTT: Nuja, bin wirklich gespannt, ob Fermi soo stark wird, wie die HD5970. Meiner Meinung nach ist er grob geschätzt etwa so schnell wie die HD5870. Wie schon jemand vor mir gesagt hat, im Vergleich zum Vorgänger hat die HD5870 die Einheiten verdoppelt, was effektiv 70% an Mehrleistung ausmacht. Wie soll dann der Fermi soviel Leistung herzaubern, obwohl im Vergleich zum Vorgänger die Shader eben nicht verdoppelt werden?

Sollte Fermi mit 512 Shadern kommen, wären das mehr als Verdopplung ;) Bei 448 nicht, logisch. Aber abwarten, bis endlich offiziell vorgestellt wird.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Muss man denn immer auf auf der fanboy Schiene daherreiten? Sei froh, dass Motkachler so nett ist und die Links der News hier postet. Charlies Artikel haben in letzter Zeit immer zugetroffen. Also kann man schon was drauf geben.
Der Thread hat so lange ohne Flamewar ausgehalten, dann soll das auch so bleiben, wie ich finde.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Hat meiner meinung nach in dem fall nix mit "er ist fanboy" zu tun ... der artikel ist tatsächlich ziemlich haltlos ... wie gesagt verwenden verschiedene hersteller ähnliche techniken wie nv (ich wage mal zu sagen, das es sogar lizensen geben mag, immerhin ist der bereich "fernsehen" nicht nv's gebiet.) und übrigens alle aktive shuttle brillen (ich muss mal bei gelegenheit rausfinden warum die kinotechnik sich da nicht durchgesetzt hat)

tatsächlich sind viele dinge aus dem zusammenhang gerissen und schlecht oder gar falsch rechergiert bzw wiedergegeben. selbst für charlie ist das unterste schiene auch wenn er sonst schon gern und viel interpretiert. normal flamed er wenigstens fundiert rum und nicht mit bewusst mit halbwahrheiten...

(und falls jetzt jemand sagt: das macht er nicht bewusst! ... das würde bedeuten er ist inkompetent ... und man kann über charlie sagen was man will z.B: "ja er ist KONTRA nV!" aber als inkompetent ist er in der regel nciht zu sehen)

EDIT:

@Shurkien

das er eher pro ati ist weis ich, aber meine aussage bezieht sich auf den text von charlie (motkachlers kommentar dazu war ja eig jecht neutral bis ncihtssagend ...)
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Shurkien schrieb:
Charlie
Kann man nix drauf geben
Aber guter Versuch Mr. "ich bashe nvidia weil ich ATi liebe <3"
lustig. er schildert eine situtation die sich industrieweit abzeichnet und er wird als flamer beschimpft. die zeit von ir-basierenden shutterbrillen ist seit jahren vorbei. es ist zwar schön, dass elsa revelator brillen noch funktionieren und das werden sie auch weiterhin, aber sie funktionieren halt nicht mehr mit neuen produkten, die alle einen standart nutzen und der ist eben nicht ir-sync.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

An die Sparsamkeit der 5750 kommt die nicht ran.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das stimmt und die Leistung reicht mir bislang auch aus, zumal sie sehr schöne OC Reserven hat (900/1400)...
Die 5830 füllt dennoch ne riesen Lücke aus.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

hört sich gut an..die 5770 ist mir ein ticken zu "langsam" und die 5850 war mir zu teuer. mal schauen wie es mit dieser 5830 wird.


MFG XeonKing©!!!
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Haaaaaaaalt!
Zumindest bei der 4830 und der 4770 wars so dass die 4830 ziemlich untertaktet war, was sich doch recht deutlich niedergeschlagen hat und die 4830 so ein gutes Stück langsamer war als die 4770. Allerdings war die Lücke damals nicht so groß und es gab keine 4750, deren Platz die 4830 wohl ausgefüllt hat.

Aber dass der Unterschied zwischen 5850 und 5770 einfach zu groß ist weiß auch ATi und deswegen glaube ich, dass die 5830 zwischen 5770 und 5850 liegt. Vielleicht auf dem Niveau einer 4890? Allerdings ist da preislich nicht so viel Spielraum, was diese These wieder etwas fragwürdig, aus wirtschaftlicher Sicht, erscheinen lässt. Außerdem müsste man in diesem Fall einen kompletten Cypress einer 5870 auf 4890 Niveau schneiden, was nicht wirklich ökonomisch ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was neues von Fuad das sowas von passend für diesen Thread ist :D

Fudzilla - Cypress yields not a problem


40nm process getting 60% to 80%

Claims that the current TSMC 40nm process that is being used for the AMD/ATI Cypress family is achieving yields of in the neighborhood of 40% don’t seem to have a shred of truth. Our sources close to TSMC claim that actually the 40nm process that is being used for the Cypress family is routinely achieving yields in the 60% to 80% range, which is actually confirmed by the fact that ATI is keeping product in the pipeline and you can actually buy boards at retail.

Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.

Those in the known are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.

All of the talk of yields seems to be in some ways nothing more than a smoke screen to shine the light off of the current situation to stall sales by promising something that most consumers are likely going to be unable to buy. The moles claim you will not need a pair of 3D glasses to watch this shake out in the next few weeks.

Obs stimmt... keine Ahnung, aber zumindest bei den Cypress Yields wird er Recht haben, da sich die Liefersituation bei den 5800er Karten in den letzten Tagen deutlich entspannt hat.

Falls es jedoch stimmt was er da über Fermi sagt dann würde ich sagen: Nvidia hat ein Problem.... :freak:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die haben mit Thermi doch jetzt schon ein Problem.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@johnieboy
Danke für die Zusammenfassung meiner Beiträge hier im Thread :D
Genau wie meine Glaskugel vorher gesagt hatte :cool_alt:

Allerdings kein Grund zur Freude, da dies Ati zu viel frei Hand lassen würde in der Preisgestaltung. Wenn der Thermi (wirklich passend) diese Produktions-/Leistungs-/Preisdaten hat zahlen wir Kunden drauf mangels Preiskampf. Ein weiteres Stepping wird 6-8 Wochen kosten bis dann am Preis was gedreht werden kann. Fehlt nur noch die Bestätigung zu der einen Vermutung von mir, dass erst die kleinere GT100 raus kommt und später erst die grössere mit dem neuen Stepping.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Mal wieder eine Fermi Meldung bei Gamestar:

Laut Fudzilla sollen zwischen dem Erscheinen der Einzelkarten und der Dual-Karte ein oder zwei Monate vergehen. Dies würde vermutlich Mai bedeuten, wenn man März oder April als Erscheinungsdatum für die ersten DirectX-11-Karten von Nvidia annimmt und es keine weiteren Probleme gibt.

Doch gerade bei einer Dual-Karte könnte sich ein Problem andeuten, denn angeblich werden die neuen Grafikkarten mit dem Fermi-basierten GF100-Grafikchip heißer als die bisherigen DirectX-10-Karten von Nvidia. Fudzilla schreibt, man habe die Karte selbst bereits zwei Mal gesehen und sie sei trotz eines Dual-Slot-Kühlers recht heiß gewesen.

Eine Dual-Karte müsste aber, abgesehen von eventuellen Taktsenkungen, mit der doppelten Hitze zurechtkommen. Vielleicht werden die Vorab-Modelle des GF100 aber auch schlicht heißer als die fertigen Varianten, beispielsweise wegen einer höheren, benötigten Spannung für stabilen Betrieb.

Quelle

Wollen die die Karten zum Schmelzen bringen? Selbst wenn Fermi nur 225W max TDP hätte, würde man bei dieser Dual GPU auf unglaubliche 550W Stromverbrauch kommen. Eine Taktsenkung schafft hier zwar abbhilfe, jedoch würde man so der 5970 wieder gefährlich nahe kommen. Wenn diese GTX 395/380 GX2 überhaupt kommt. Angeblich gibts ja mit zwei Karten übereinander (hier ist die Kühlleistung deutlich höher) zu enormen Hitzeproblemen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Felixxz21 schrieb:
Wollen die die Karten zum Schmelzen bringen? Selbst wenn Fermi nur 225W max TDP hätte, würde man bei dieser Dual GPU auf unglaubliche 550W Stromverbrauch kommen.

Bitte geh nochmal in die Schule zum Rechnen... :rolleyes:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben