News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Screemer schrieb:
1.4 frames im vergleich zu 1.3 frames dürfte schon unter messtolleranz fallen.
Seh ich andere Benchmarks als du? Die Geforce ist unter DX10.1 immer 4fps langsamer, bei HL2, CoD4, AC und Race Driver ist sie auch jedesmal schlechter - und das nicht um 0.1 fps
 
Turbostaat:
Siehe Battleforge. Die NV legt 1.4FPS zu die ATI "nur" 1.3. Wie Screemer aber schon meinte ist das wohl zu vernachlässigen.
 
Schon mal überlegt, dass das ne Billig Grafikkarte ist die einfach nur billig in der Fertigung sein soll? Schau dir mal die DIE-Größe an.

Und die G210 legt mit D3D10.1 mehr zu als die 4350.
Mich überrascht die Performance pro Watt und der relativ hohe Stromverbrauch des sehr kleinen Dies (im Vergleich zu HD 4350)

Immerhin ist dieser in 40nm-Fertigung und trotzdem "stromfressender" (& langsamer) als die Konkurrenz.
Überraschend deshalb, weil der GT285 im Vergleich zur RV770 eine gute Effizienz a la Performance-pro-Watt hat.
Aber das liegt auch daran, weil der GTX285 nur 1,18 Volt hat und der RV770 ganze 1,28 Volt.

Bei Mainstream-GPU vermute ich, leider weiß ich es noch nicht, da mir das erst vor kurzem aufgefallen ist, dass dieser Volt-Unterschied nicht besteht und somit die RV770-Serie auch in Sachen Performance pro Watt sehr gut dasteht.

Und gerade in Notebook-Bereich werden die Leistungsfähigen Notebook-GPUs sehr erfolgreich sein ala Nvidia-7000er-8000er-Serie und ATI jetzt mit HD4000er-Serie.

RV870 hat jetzt die Volt auf 1,15 gesenkt und den Stromverbrauch mit doppelten Einheiten halten können.
Somit müsste Femi den Stromverbrauch auch 1,05 oder 1,06 Volt senken, damit sich auch den Stromverbrauch halten können.

Sowas wäre nicht unrealistisch, weil RV740 nur 1,03 Volt hat.
Aber eben nur 750Mhz. Vielleicht ist das eben der grund, warum die Taktraten schon beim GT200 & GT200b unter den Erwartungen waren.

Mal sehen, ob es so kommt.
 
Zuletzt bearbeitet:
@turbostaat: mir gings um tarsonis aussage, dass nvidia mit der g210 bei dx10.1 mehr zulegt als ati mit der 4350. und da sinds eben 1.4fps zu 1.3fps. dass die g210 sowieso langsamer ist hat ihn wohl nicht interessiert.
 
Zuletzt bearbeitet:
Prozentual fast das doppelte.;) Ist natürlich trotzdem irrelevant.
Nur ist die Behauptung die würde unter D3d10.1 abkacken einfach lächerlich. Die Karte hat keine mangelhafte Umsetzung von D3D10.1 sondern ist einfach viel zu klein um schnell zu sein. Die kackt unter D3D10 oder D3D9 noch mehr ab.

Und wer aufgrund dieses Tests dann noch penetrant behauptet Nvidia wär zu blöd D3D10.1 Karten zu fertigen macht sich lächerlich. Dann noch die Aussage die G210 wäre ein Brandneue Architektur. :lol: Da kann man sich echt nur noch auf dem Boden rollen.

Und natürlich ist die billig in der Herstellung. Der Endpreis hat damit doch rein gar nichts zu tun. (Wobei ich auch keinen Preis der G210 sehe)

Die Performance ist auch vollkommen egal in diesem Bereich, kommt eh nicht in nem Gamer-PC.
Bei den Karten geht es nur darum möglichst viele an die großen Hersteller zu liefern und biilig zu fertigen.
 
@Bensen
Brandneu? wo hab ich das gesagt? der 40nm prozess ist für NV brandneu und kann dem alten 50nm prozess von ATI nicht das wasser reichen bei den OEM karten. Was G300 kann steht in der Glaskugel. Oder ist schon was zu sehen auser hochgehaltenen abgesägten Fermi Puppys. Und die oem Karten sind wohl schon vergleichbar weil die verglichenen ATI karten auch klein sind . Und vor allem günstiger. Und trotzdem um längen schneller. Wer sich hier lächerlich macht seh ich deutlich.:lol:

Was der G300 kann wird man sehen hoffenlich kann ders besser.
 
Zuletzt bearbeitet:
von den hohen preisen der karten könnte man wenn man wollte, aber auch auf hohe chipkosten schließen. hohe chipkosten würden in dem fall niedrige yields bedeuten. aber wie immer: alles spekulation!
 
@Motkachler
@bensen
Na super neue 40 nm NV architektur extrem langsamer als alte ATI 55 nm Architektur
Da? Herstellungsprozess und Architektur ist was komplett anderes.
Und nein ATI hat nicht so kleine GPUs. Der RV710 ist mehr als 50% größer.
Und was hat das mit "im OEM Bereich das Wasser reichen" zu tun? Interessiert HP, Dell und Co nicht die Bohne ob die Karte jetzt etwas langsamer ist oder nicht.

Aber nochmal, es geht doch gar nicht darum ob die G210 ne gute Karte ist oder nicht. Das habe ich auch nie behauptet. Das Teil interessiert doch keine Sau.

Nur die Aussage das man aufgrund eines Benchmarks der kleinsten Karte von Nvidia behauptet Nvidia hätte Probleme mit D3d10.1 ist lächerlich. Wer das nicht einsieht ist leicht verblendet.
Ja die Karte ist lahm, aber mit 16SP erwartet doch wohl keiner ein besseres Ergebnis.
 
Zuletzt bearbeitet:
Ich sage nur eines:

In welches Segment wird am meisten Geld verdient? Schon durch die Größe des Chips, kann Nvidia nicht mit Kampfpreisen an die Sache gehen. AMD wird am Ende, auch wenn die Karten ca. 30% langsamer sind, besser da stehen.

Und um die größe von Gott (der zwischen den Beinen), sollte es in unserer Zeit doch nicht mehr gehen. Die Schwanzmark 2006 Zeiten sind vorbei.

Heute zählt Preis-/Leistung und Performance/Watt (und Lautstärke)!
 
P/L mäßig zieht ATI Nvidia auch dieses mal die Hosen aus, eher noch mehr als das. Heute wird mehr denn je auf das Geld geachtet, Chips über 200 EUR verkommen zu Ladenhütern, ein paar wohlbetuchte werden da in der Statistik nichts reißen können. Nvidia macht zur Zeit den größten Umsatz mit günstigen 260er GTX Karten, ATI bis vor kurzem mit der 4850/70, jetzt wird die HD5770 zum P/L Renner werden, dicht gefolgt von der HD5850. Die HD5870 wird ein seltenes Rennpferd bleiben, ebenso Nvidia Karten die deutlich über 200.- EUR kosten. Grafikkarten kauft man nicht für die ferne Zukunft, sondern für das kommende halbe bis volle Jahr.
 
Zuletzt bearbeitet:
Bis 300,- sehe ich bei so halbwegs regelmäßigen "Gamern" durchaus die Bereitschaft in einen entsprechenden Beschleuniger zu investieren. Da würde ich auch die 58xx längerfristig mit drin sehen. Nur die grünen übertreibens mal wieder...
 
Ihr hab echt einen an der Waffel! Streitet euch wegen ein paar Frames bei der G210 und dabei gehts doch in der News um die GT300 Karten... :freak:

Ich find irgendwie, das die Teslakarte einen recht kurzen Eindruck macht, also wenn ich mir daneben mal die megalange HD5870 vorstelle und wie lang dann die HD5870X2 sein wird. Da wirkt diese Teslakarte doch recht mickrig, soll aber nicht heißen, dass die davon zur Krügge wird (Man weiß ja auch nicht, auf welcher Karte die Teslakarte beruht. Könnte eine GTX360 oder GTX380 sein, obwohl ich mal die 360er eher ausschließe, weil wenn die 360 schon einen 6+8 Pin Stromanschluss brauchen würde, was würde dann eine 380er brauchen? 8+8Pin?!?). Also was man da so an Informationen schon so gehört hat, wird das echt ein Rechenmonster. Ich frag mich nur, ob NVidia sich jetzt eher auf GPU Computing oder auf Spiele spezialisiert hat. Würd fast behaupten, dass eine GTX380 in Spielen nur etwa 10% bis 15% schneller sein wird als die HD5870, dafür würde dann die 5870 im GPU Computing gegen die 380 nur noch die Rücklichter sehn :rolleyes:
Man wird das ein interessanter Herbst. Kanns gar nicht mehr erwarten, wann NVidia endlich released, obwohl ich momentan doch eher mit einer HD5850 sympatisiere.

EDIT:
@mediamaxx:
Da sagst du ein wahres Wort! Bin auch am grübeln, ob sich NVidia mit den riesen Klopfern von Chips in Bezug auf Ausbeute und Kosten nicht eventuell doch verrennt.
 
Zuletzt bearbeitet:
Nachdem die gezeigte Karte keine Tesla Karte auf Fermi war, lässt sich höchsten über den Kühler (wenns den nicht schon vorher gab) eine Aussage über Länge oder Strombedarf machen.

Greetz,
GHad
 
LOL, @Papst_Benedikt, der war jetzt echt gut :D :D :D
Ich find irgendwie, das die Teslakarte einen recht kurzen Eindruck macht, also wenn ich mir daneben mal die megalange HD5870 vorstelle und wie lang dann die HD5870X2 sein wird. Da wirkt diese Teslakarte doch recht mickrig

Darf Nvidia halt keine Platinen zersägen u. nen Gehäuse + Anschlüsse drauf verkleben.
 
MountWalker schrieb:
Das sehe ich anders: Zeig mir mal eine Liste mit Spielen, die tatsächlich eine eigens entwickelte Engine und keine lizenzierte verwenden. Jedes interessante Spiel hat die Grafikengine lizenziert,

Hmmm, ja, sorry, vielleicht hätte ich schreiben sollen: Es gibt noch jede Menge kleinerer Engines (-entwickler). EPIC mit der meisten Kohle und Ressourcen kanns nur recht sein, wenn so viele wie möglich davon verschwinden.

Denahar schrieb:
...was jetzt nicht unbedingt als eine vertrauenserweckende Quelle zählt. Zudem wäre es schon eine Leistung doppelte so viele Transistoren auf die gleiche Fläche zu zwängen, oder?

Ohhh, die gute alte Glaubwürdigkeitskeule :rolleyes:

Nenn mir EINE glaubwürdigere Quelle. Jemand, der genauso umfangreiche Hintergrundinfos (Produktionskosten für Grafikkarten z.B.) liefert. Jemand, der sich traut, weit im Voraus Prognosen abzugeben und mehr Recht behält als er falsch liegt. Jemand, der sich traut, die Lügen der Konzerne aufzudecken.

Du wirst mir keine nennen können.

Du solltest vielleicht mal ein paar Stories von Charlie lesen (was ich schon seit Jahren mache) und dir deine eigene Meinung bilden, anstatt nur den Fanboys nachzuplappern (Vielleicht selber einer ;)).

Ich geb dir mal ein paar Leseproben.

Story zur GTX 275, die erst Monate später kam.

Die Geschichte hinter "Bumpgate"

1 2 3

IMO der einzige, der NVIDIA hier auf ganzer Linie "überführt" hat, war Charlie.

GT300 im Oktober :lol:

Oder ganz "aktuell" die GT300 Architektur (schon paar Monate her, kannst dir selber ein Bild machen, was davon jetzt schon korrekt ist)

Und sozusagen "tagesaktuell" der NVIDIA Fake

Man beachte die "7" auf dem GPU :ATOMROFL


IMO macht Charlie genau das, was ein Journalist zu tun hat, nämlich die Geschichte hinter der Geschichte aufzudecken, egal wieviel FUD die Firmen oder Fanboys streuen.

Lübke schrieb:
@NoD.sunrise: das ist mir neu und würde mich auch etwas wundern, wenn mikrosoft sich von nvidia vorschreiben ließe, wie ihr direct x auszusehen hat. Oô
hast du mal ne seriöse quelle für deine aussage?

Ne offizielle Aussage wirst du nie bekommen. Charlie hat mal was dazu geschrieben: (siehe Link zur GT300 Architektur)

"DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality."

In Anbetracht dessen, dass NVIDIA lange nicht mal 10.1 hinbekommen hat und DX11 als unwichtig abstempelt, neige ich dazu ihm zu glauben.

bensen schrieb:
Und die G210 legt mit D3D10.1 mehr zu als die 4350. :freak:

Äh :lol: die G210 kann ABSOLUT GAR NICHTS besser als die 4350 und du kommst damit, dass sie bei .1 "mehr zulegt"?

:freak:

MountWalker schrieb:
ATI dürfte ganz einfach das gleiche passiert sein, was Nvidia mit der GeforceFX passierte: Sie hatten gemutmaßt, dass dieses und jenes reinkommen würde und habens dswegen verbaut um hinterher festzustellen, dass es nicht in der Spec drin ist. Die GeforceFX hatte deswegen in DX9 abgekackt, weil sie beim Shadermodell in der FP32-Leistung zu viel bot und ATI hats eben bei der HD2900 erwischt. Unterschied besteht dann eben drin, dass es , wo es Nvidia passierte, von jedermann als Nvidias Fehler akzeptiert wurde, wohingegen bei ATIs späterem Fehler sofort Verschwörungstheorien aufblühen.

Dazu gibts soweit ich weiß zwei Theorien:

1. NVIDIA hat nur angegeben, FP32 zu unterstützen. AMD wollte FP24. Also hat MS sich auf FP24 als Minimum gestgelegt. NVIDIA hat aber eigentlich viel mehr mit FP16 gerechnet, als mit FP32 und somit den Standard nicht mehr erfüllt.

2. So wies in der englischen Wiki steht: NVIDIA hatte Streit (wegen XBOX irgendwas) und MS hat NVIDIA daraufhin in den Allerwertesten "getreten"

Stumbles with the FX series

Die 2. Möglichkeit ist wohl wahrscheinlicher, insofern hat NVIDIA nicht nur einfach verkackt, sondern aufgrund ihrer heute noch üblichen "großen Fresse" ins Klo gegriffen.
 
Zuletzt bearbeitet:
YoWoo, mediamaxx, LeChris und Papst_Benedikt ihr sprecht mir fast aus der Seele. :D

@GHad: Jo danke, aber man konnte es sich schon fast denken und die Gerüchte heute Nachmittag deuteten nun mal dadrauf hin.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben