News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Ich habe von den 2 Chipkarten gesprochen;) Ich habe gelesen, das ein normales sli system, also 2 einzelne karten besser skallieren, als eine 2 chipkarte, ich suche den artikel mal wenn ich etwas zeit habe :)
Ergänzung ()

ala 295GTx und Hd4890X2
Ergänzung ()

Hüpsche Glaskugel.......sagste mir die Lottozahlen xD ;):)
 
White_Eagle schrieb:
Wie machen die dann mit Dummys dann ne Grafikvorführung+ den Vergleich??? (siehe u.a. obigen Beitrag v. IntelCyphe)
Ev. iss Magier David Copperfield wieder aktiv???
Erinnert mich mehr an: Entlarvte Magier - Uri Geller, David Copperfield , Criss Angel, als an ne Vorführung,
das ganze iss ja dann mehr ne Magiershow, statt ne Präsentation??? (ich ging früher schon nicht gern in nen Zirkus).

:D mal ganz ehrlich ein stückchen AVI abspielen auf der Line wand kann jeder ^^ was mich stark wunderte das die Frames auf dem Vid so konstant waren sehr sehr unrealistisch.... :p der grüne staub hat angefangen sich zu bewegen keine ännderung der FPS :) schlechter faken kann man nicht´s und dann noch vom eigenen Cheffe
 
QX9770-Freak: lass mal gut sein. 100 posts an einem tag sollten für die nächsten wochen reichen. nur so nebenbei empfehle ich dir mal den "ändern"-knopf zu nutzen als dauernt zig post nacheinander zu schreiben.
 
Lübke schrieb:
@NoD.sunrise:
in sachen direct x ist nvidia mit der 8800gtx der 2900 nicht nur zeitlich vorraus gewesen ;) zwar hatte die 38x0 von ati dann dx10.1 auch offiziell, aber angebelich war das gros der vorraussetzungen für dx10.1 bereits im g80 schon erfüllt. ich denk nicht, dass ati hier einen erfahrungsvorsprung hat.

Kleine Korrektur am Rande, DX11 bringt viele Dinge die in DX10 auf drängen von Nvidia gekippt wurden. Jedoch hatte ATI damals schon alle (!) Teile in der Hardware umgesetzt, während Nvidia dies nicht geschafft hatte, oder nicht wollte. (wie auch immer) De facto hat ATI seit der HD2000 Serie die DX11 Voraussetzungen in Hardware und diese auch mit optimiert, wobei Nvidia bis zum Schluss noch nicht einmal mit DX10.1 aufwarten konnte.
 
das bezweifle ich sehr stark. die 2900 hatte noch keine tesselation. die tesselation der 3800 und 4800 sind nicht dx11-konform und auch bei den übrigen features bezweifle ich dass ati diese hatte, bevor ms überhaupt selber wusste, wie sie dx11 realisieren wollen ;)

aber falls du glaubwürdige quellen dazu hast, lasse ich mich gern eines besseren belehren...
 
Sgt.Speirs schrieb:
Die Frage ist nur wo. Single-Precision, Double-Precision, CUDA oder doch in Spielen? ;)

AHA woher nimmst du diese gewissheit?

lol und diese aussage, "Fakt"

wir haben damals das gleiche bei der HD2900 erlebt. Auf dem Papier ein Monster, in Spielen eine Laus.

Und ich befürchte, dass nVidia sich zu doll auf den Professionellen Bereich als auf den Gamer bereich konzentriert hat und die Karte dort das meiste aufgeholt hat und mit der Leistung nicht viel gesteigert wurde.

Also sollte die Karte laut und strom fressen wie es die Daten "erahnen lassen" aber dennoch nicht so VIEL Vorsprung vor der ATi haben in SPIELEN, dann ist ATI klar die bessere Wahl. denn keiner, ja wirklich keiner von gamern, kann mit diesen super spezial features von der karte da profitieren, weil kein game das ausnutzt. und wozu kauft man sich so eine karte? für games!
 
die 2900 hatte noch keine tesselation.

Den hat sie schon, aber genauso wie eine Schwalbe keinen Sommer macht (oder so ;) ) , macht ein Tesselator kein DX11.
Die These das die 2000/3000/4000er Serie DX11 könne ist genauso falsch wie sie alt ist.
Man ist den Vorraussetzungen (alleine schon durch DX 10.1) um einiges näher als nV, aber voll DX11 kann man trotzdem nicht.
 
oh ich dachte, dass diese mit der hd3k eingeführt wurde. dennoch kannte zu der zeit ms die spezifikationen für dx11 selbst noch nicht. ich denke mal eher, dass ihr da was mit dx10.1 verwechselt habt...

jedenfalls mache ich mir da keine sorgen um nvidia.

vielmehr wird das problem sein, dass hier alle so ne überkarte erwarten. wie ich schon geschrieben habe, bezweifle ich, dass der g300 so eine tolle gamerkarte wird. ich schätze, es werden vllt. 20% vor der 5870 wenns hoch kommt... und der verbrauch wird unter last vermutlich problematisch werden. eine "gtx395" wird es wohl nicht geben...
 
auch das ist spekulation. wir haben bisher nur die theorietischen daten und die "ankündigung" aufgrund des GT300 presse-dummys das die karte einen 8 und einen 6 pin stromanschluss haben wird. diese müssen allerdings die SPITZEN!!!! in der strom abnahme liefern. was den schluss das die akrten nicht merklich mehr verbrauchen werden unter last wie die 5870. und auch die frage welche der features für den gaming bereich verfügbar sein werden ist noch fraglich.

ich hab so das gefühl das uns die G300 noch überrachen werden ...
 
Genaugenommen hatte R200 schon Tesselation, damals nannte sich das ganze dann TruForm. Es wurde jedoch nie ein Nutzen aus dieser Fähigkeit gezogen.
 
Ja und zugegeben bin ich mir da nicht ganz einig.
Ich befürchte ja beides ^^;;
 
FortissimoIV schrieb:
Genaugenommen hatte R200 schon Tesselation, damals nannte sich das ganze dann TruForm. Es wurde jedoch nie ein Nutzen aus dieser Fähigkeit gezogen.

Trotzdem reden alle davon und tun so, als wäre es das wichtigstes Feature auf der Welt... :freak:
 
deshalb ist jede these über die mögliche Leistung auch gegenstandslos, da wir im Prinzip nicht viel haben.

die leute mit prozentangaben über die Leistung, oder die prophezeihen dass der GT300 einen quantensprung in der gaming Leistung macht, haben einfach keine Ahnung und versuchen Stimmung zu machen.


gruß
 
Zuletzt bearbeitet:
FortissimoIV schrieb:
Genaugenommen hatte R200 schon Tesselation, damals nannte sich das ganze dann TruForm.
truform war der dx11 hardware-tesselation schon sehr ähnlich, allerdings von seiner anwendung völlig unterschiedlich.
 
typisch charly, macht aus ner mücke nen elefanten^^

das thema mit dem dummy hatten wir hier schon. ja, es wurde ein dummy gezeigt und nein, das hat keine bedeutung sondern ist so üblich. das pcb entspricht absichtlich nicht dem echten um infos zum layout geheim halten zu können.

aber charly erklärt nvidia gleich mal wieder für tot :D
 
Lübke schrieb:
typisch charly, macht aus ner mücke nen elefanten^^

aber charly erklärt nvidia gleich mal wieder für tot :D

Hast Du das von Charlie anders erwartet? ^^ Das Einzige, was mir Sorgen macht sind seine Aussagen zum Chip, denn das klingt alles sehr, sehr logisch...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben