Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)
- Ersteller Lübke
- Erstellt am
- Status
- Für weitere Antworten geschlossen.
Wattebaellchen
Captain
- Registriert
- März 2010
- Beiträge
- 3.638
nur nicht soviel mehr das man sagen könnte das einem das mit der karte nicht passieren wird.
Es wird da auf jeden Fall auch 1,5GB Versionen geben.
768MB sind echt verdammt knapp.
Ist jetzt nicht ganz so ein extremer Krüppel der komplett fürn Eimer ist wie ne 8800GT 256MB oder 8800GTS 320MB. Aber ich würde mir definitiv keine Karte mehr mit weniger als 1GB kaufen.
768MB sind echt verdammt knapp.
Ist jetzt nicht ganz so ein extremer Krüppel der komplett fürn Eimer ist wie ne 8800GT 256MB oder 8800GTS 320MB. Aber ich würde mir definitiv keine Karte mehr mit weniger als 1GB kaufen.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Hat mal jemand gesehen, welchen Quatsch Fudo so verbreitet? Ist ja echt nicht zum aushalten...
"Nvidia's mainstream Fermi generation got cancelled. It's not tragic, as the promising GF104 architecture takes over and Nvidia's future mainstream as well as entry level chips will be based on this improved architecture."
???
Jemand mit soviel Erfahrung im Geschäft hätt ich sowas nicht zugetraut.
Hat er seinen Verstand verloren?
Das wäre so, als wenn jemand sagt, das Juniper ne andere Architektur als Cypress hat.
Schon die Überschrift. "Mainstream Fermi is cancelled"
Das GF104 vielleicht mal der Mainstream Fermi ist, hat er wohl noch nicht gemerkt...
EDIT: oder hier.
"Doubling the shader count on GF104 should give you a 512-shader card with much better thermals than the original Fermi."
Einfach nur: Kopf-->Tisch
"Nvidia's mainstream Fermi generation got cancelled. It's not tragic, as the promising GF104 architecture takes over and Nvidia's future mainstream as well as entry level chips will be based on this improved architecture."
???
Jemand mit soviel Erfahrung im Geschäft hätt ich sowas nicht zugetraut.
Hat er seinen Verstand verloren?
Das wäre so, als wenn jemand sagt, das Juniper ne andere Architektur als Cypress hat.
Schon die Überschrift. "Mainstream Fermi is cancelled"
Das GF104 vielleicht mal der Mainstream Fermi ist, hat er wohl noch nicht gemerkt...
EDIT: oder hier.
"Doubling the shader count on GF104 should give you a 512-shader card with much better thermals than the original Fermi."
Einfach nur: Kopf-->Tisch
Zuletzt bearbeitet:
AwesomeSauce
Lt. Junior Grade
- Registriert
- Juli 2009
- Beiträge
- 396
@KAOZNAKE
Er wurde in den Comments schon darauf hingewiesen. Keine Ahnung, was er da ungesundes geraucht hat
Zum anderen Artikel haben wir bereits im 3DC diskutiert, und ganz so abwegig ist die Theorie nicht. Natürlich kämen für einen hochgezüchteten GF104-Chip 512 SPs nicht in Frage, da hat er wohl wieder etwas geraucht...
Er wurde in den Comments schon darauf hingewiesen. Keine Ahnung, was er da ungesundes geraucht hat
Zum anderen Artikel haben wir bereits im 3DC diskutiert, und ganz so abwegig ist die Theorie nicht. Natürlich kämen für einen hochgezüchteten GF104-Chip 512 SPs nicht in Frage, da hat er wohl wieder etwas geraucht...
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Naja, mal davon ausgegangen, dass NVIDIA für den GF104 den ganzen für Gamer nicht notwendigen GPGPU-Kram abspeckt, könnte man auch hingehen und die Shader verdoppeln, um einen "schlanken" Fermi mit 512 Shadern hinzubekommen.
Dann wär aber die Frage, warum man das nicht gleich gemacht hat.
Oder er meint den Dual-GF104, also 2x256...
Naja, lt. Fuad werden wir am 12. mehr erfahren. Ist ja nicht mehr so lange hin.
Dann wär aber die Frage, warum man das nicht gleich gemacht hat.
Oder er meint den Dual-GF104, also 2x256...
Naja, lt. Fuad werden wir am 12. mehr erfahren. Ist ja nicht mehr so lange hin.
KAOZNAKE schrieb:Naja, mal davon ausgegangen, dass NVIDIA für den GF104 den ganzen für Gamer nicht notwendigen GPGPU-Kram abspeckt, könnte man auch hingehen und die Shader verdoppeln, um einen "schlanken" Fermi mit 512 Shadern hinzubekommen.
Dann wär aber die Frage, warum man das nicht gleich gemacht hat.
Oder er meint den Dual-GF104, also 2x256...
Naja, lt. Fuad werden wir am 12. mehr erfahren. Ist ja nicht mehr so lange hin.
Vll. weil das zusätzliche entwicklungszeit bedeutet hätte. Die ware sowiso schon viel zu spät und konnten die versrechungen nicht einhalten.
JokerGermany
Banned
- Registriert
- März 2009
- Beiträge
- 1.546
Naja, aber im Herbst kommt SI, da müsste eigentlich schon FermiII rauskommen.
Eine GTX 470/480 auf GF104 Basis mag vielleicht (wenn tatsächlich möglich) zum stromsparen interessant sein, aber mehr nicht.
Solange man keine FermiII anbieten kann ja ganz nett, aber wirklich Konkurrenzfähig werden sie damit nicht.
Könnte mir vorstellen, das die GTX475/485 zum Release des SI rausgebracht wird, damit einige Leute denken: Neu+Teuer+Nvidia=gut.
Ich weiß nicht wie lange es gebraucht hat, bis ne GTX 285 rauskam, aber irgendwie würde ich mir als GTX470/480 Käufer ganz schön veräppelt vorkommen.
Weil das hat ja irgendwie son Faden Beta-Tester Beigeschmack...
Und die Zeiten indem Nvidia machen konnte was sie wollten, sind Gott sei Dank vorbei, AMD/ATI ist aufgewacht...
Eine GTX 470/480 auf GF104 Basis mag vielleicht (wenn tatsächlich möglich) zum stromsparen interessant sein, aber mehr nicht.
Solange man keine FermiII anbieten kann ja ganz nett, aber wirklich Konkurrenzfähig werden sie damit nicht.
Könnte mir vorstellen, das die GTX475/485 zum Release des SI rausgebracht wird, damit einige Leute denken: Neu+Teuer+Nvidia=gut.
Ich weiß nicht wie lange es gebraucht hat, bis ne GTX 285 rauskam, aber irgendwie würde ich mir als GTX470/480 Käufer ganz schön veräppelt vorkommen.
Weil das hat ja irgendwie son Faden Beta-Tester Beigeschmack...
Und die Zeiten indem Nvidia machen konnte was sie wollten, sind Gott sei Dank vorbei, AMD/ATI ist aufgewacht...
- Registriert
- Aug. 2007
- Beiträge
- 21.162
überschätzt mal nicht den verzichtbaren gpgpu-anteil des gf100. da kann ein bisschen was weggeschnitten werden, aber das gros ist architekturbedingt und kann ohne eine völlig neue architektur nicht einfach entfernt werden. imho ist ein gf104-512 daher blödsinn. die unterschiede zum gf100 wären marginal und würden eine eigene fertigungslinie für einen chip in der gleichen klasse mit annähernd gleichen technischen daten bedeuten. die mehrkosten würden die geringe transistorenersparnis niemals rechtfertigen können. denn den gf100 braucht man für das profisegment auf jeden fall.
ein gf104 größer als 384 shader ist daher imho wirtschaftlich betrachtet sinnfrei. bis auf wenige watt ersparnis hätte der chip nichts zu bieten und das für höhere produktionskosten...
ein gf104 größer als 384 shader ist daher imho wirtschaftlich betrachtet sinnfrei. bis auf wenige watt ersparnis hätte der chip nichts zu bieten und das für höhere produktionskosten...
Wattebaellchen
Captain
- Registriert
- März 2010
- Beiträge
- 3.638
Ja pass auf die schneiden den jetzt zu einem grünen Produkt und dann bin ich auf den ersten Tessaltion oder Physx Benchmark gespannt
die.foenfrisur
Commodore
- Registriert
- Jan. 2006
- Beiträge
- 4.984
gtx 485 mit 512 shadern ??
https://www.computerbase.de/2010-06/bilder-der-gtx-485-platine-aufgetaucht/
mfg
https://www.computerbase.de/2010-06/bilder-der-gtx-485-platine-aufgetaucht/
mfg
Ob GF100 oder GF 104 (Fermi bleibt Fermi, und Fermi bleibt Thermi),
der Stromverbrauch ist nachwievor auf dem Niveau (ich rede vom Beispiel einer GTX 470)
einer GTX 260 60 nm 192 Shaderprozessoren.
MfG
tmkoeln
Gibt ja noch bald GF106 und GF108
der Stromverbrauch ist nachwievor auf dem Niveau (ich rede vom Beispiel einer GTX 470)
einer GTX 260 60 nm 192 Shaderprozessoren.
MfG
tmkoeln
Ergänzung ()
Gibt ja noch bald GF106 und GF108
Kartenlehrling
Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.377
Dafür mussen aber erstmal die 470 und 480 abgekauft werden,
wenn ich mir diese Liste von Mai ansehe wird das schwer.
Nicht mal 4% der Steambenutzer die eine DX11 fähige Karte haben sich für eine Nvidia entschieden.
wenn ich mir diese Liste von Mai ansehe wird das schwer.
Nicht mal 4% der Steambenutzer die eine DX11 fähige Karte haben sich für eine Nvidia entschieden.
Anhänge
Zuletzt bearbeitet:
(falsch formuliert)
Wattebaellchen
Captain
- Registriert
- März 2010
- Beiträge
- 3.638
aua... 3,7% für nvidia... sollte man mal im auge behalten
S
Shurkien
Gast
Steam=ganze Welt
Is klar...
Is klar...
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Nenn mir bessere/vertrauenswürdigere Werte?
Dass Nvidia nicht viele GTX4xx verkauft hat, sollte logisch sein, nicht jeder will High End und ATI hatte ihre Karten schon lange auf dem Markt und dass die solide verkauft wurden, sieht man ja daran, dass sie teilweise ausverkauft sind.
Dass Nvidia nicht viele GTX4xx verkauft hat, sollte logisch sein, nicht jeder will High End und ATI hatte ihre Karten schon lange auf dem Markt und dass die solide verkauft wurden, sieht man ja daran, dass sie teilweise ausverkauft sind.
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 1.446
- Aufrufe
- 159.493