News Fotos und weitere Infos zum GT200 von Nvidia

Da hast Du Recht mein Guter, das Sie noch keinen Heller für DX10.1 ausgegeben haben.
Sondern nur für das unterbinden AC soll ja 2,5 Millionen Dollar gekostet haben, dafür dürfen Sie den Standart diktieren.
So kann man den Fortschritt halt auch unterbinden.
Gruss ST
 
XD leute streitet euch doch nich wegen sowas^^
ob dx10.1 kommt oder nicht wird sich zeigen. ati hälts halt für erforderlich das in die aktuellen chips zu intigrieren und nv eben (noch?) nicht. wer recht behält wird sich zeigen. bei openGL isses das gleiche nur buchstäblich in grün ;) da hat nv die vorreiterrolle übernommen und openGL 2.1 implementiert, ati noch nicht. vllt ist ati zu früh mit dx10.1, vllt kommt direkt dx11 nach 10 in den spielen, vllt zeigt sich atis strategie als die bessere wenn nv dann ganz plötzlich nachziehn muss... das kann keiner von uns beurteilen. warten wirs ab.

ps: das nv nicht fähig sein soll dx10.1 zu intigrieren halte ich ja ma fürn gerücht ;)
 
Zuletzt bearbeitet:
ac hat nur dank nvidia dx10.1 support? öhm, die ist aber klar, dass dx10.1 der neue standard von vista mit sp1 ist?
was hat nvidia damit zu tun?
nvidia hat das spiel nicht gemacht, nur gesponsort..... und dann dafür gesorgt, dass dx10.1 entfernt wird, damit es nicht so peinlich für nvidia wird.... *g*
sieht ja schon peinlich aus, wenn man zu blöde für dx10.1 ist, oder?
 
ist schon mal n der geschichte eine dx version nicht gekommen?

also sind deine zweifel eher durch die erfahrung wiederlegt.

dx10.1 bringt sehr wohl vorteile, wie man bei ac sehen konnte, nur werden die von nvidia geleugnet, da nvidia eben noch unfähig ist dx10.1 zu implementieren.

nvidia ist im moment eher die technikbremse in sachen produktionstechnologie, in sachen stromspartechnik, in sachen dx 10.1 in sachen grafikqualität in sachen sound über hdmi usw usw....

wo nvidia gut ist... nun ja, in sachen gamesschmieden bestechen *g*
 
ja dx9b ;) übrigends auch bei ati...
nach dx9 war dx9c verbreitet...

obs vorteile bringt oder nicht, wenns in keinem spiel integriert ist nützt es auch nix.

und was das mit dem dx10.1 und stromsparen bei nv auf sich hat, da hab ich ja schon weiter oben meine these zu geschrieben ;)
 
Zuletzt bearbeitet:
laut MS wird es keine weitere dx10 version nach dx10.1 geben.

und dx11 wird eventuell in 3 jahren kommen mit windows 7.

wieso denkst du, dass es ein gerücht ist, dass nvidia nicht fähig ist im moment dx10.1 zu machen?
ist eben eine tatsache, viele sagen ja auch ,der gt200 ist der "verschollene" g90.... eben mit alter technik...
so siehts im moment auch aus
 
Zuletzt bearbeitet:
hab auch gerüchte gelesen dass dx11 noch in diesem jahr kommen würde. wir werden sehn. wie gesagt: beide hersteller können entweder richtig oder falsch liegen. im mom hat man noch keinen nutzen durch dx10.1 mangels spielen. und da auch keine angekündigt sind, denke ich wirds noch ne weile dauern. warten wirs einfach ab.
 
man hätte einen nutzen von dx10.1, wenn nicht nvidia bei ubisoft interveniert hätte und dafür gesortg hätte, dass dx10.1 bei ac entfernt wird.

red dir deine nvidiawelt doch net schön und bleib mal bei tatsachen. ati ist technologisch weiter als nvidia.
PUNKT.
da kannste sagen was du willst

PS. das dx11 dieses jahr kommen soll ist sowas von einem blödsinnigen gerücht *gg*
 
Zuletzt bearbeitet:
Nach bisherigen Gerüchten ist die 4870 X2 weitaus langsamer als die GX 280.
Noch nicht mitbekommen? 2-3 fache G80 Power ist etwas mehr als +25%.
Zudem hat die X2 all die Multi GPU Nachteile.

Ich weiß nicht, warum du unbedingt dem hinterher weinst, wenn es keine GT200 X2 Karte gibt.
 
Gerüchte hier, Gerüchte da.. man Leute wartet doch einfach ab, bis dr Kram aufm Markt ist, dann getestet wird und TADAA schon hat man Werte, auf die man sich auch stützen kann. Andauernd dieses "Die neue NVIDIA is die geilste"-Gelaber nervt so langsam.. mag ja durchaus sein, dass die schneller als die nächsten ATIs sind, aber Fakt ist, es gibt keinerlei ECHTE FAKTEN dafür, alles reine Spekulation und daher wohl echt sinnlos..
 
Solange Nvidia nicht auf D3D10.1 setzt, bleibt es sinnlos.
Das ist Fakt.

Kein Entwickler wird von von alleine so viel Geld da reinstecken, wenn es nur 30% des Marktes nutzen.

D3D10.1 wird nicht aus AC entfernt, du bist schlecht informiert. PS: http://enthusiast.hardocp.com/article.html?art=MTQ5Myw4LCxoZW50aHVzaWFzdA==

Windows 7 kommt viel eher, somit auch D3D11. Ursprünglich sollte Vista 2 Jahre halten, eins haben wir schon locker verbraten.

Du wirfst den Nvidia Jungs Unfähigkeit vor.
Darf ich erinnern, wer bis heute die 8800GTX nicht geschlagen hat? AMD. Wird langsam echt mal Zeit, auch wenns mit dem ordentlichen AF noch nicht klappt.

btw Und warum muss diese Diskussion so unübersichtlich sein?
 
Zuletzt bearbeitet:
@UNYU
langsam isses echt nur noch nervig. Egal was kommt und worum es geht, ich glaube deine letzen 100 Kommentare kann man in "NVIDIA=GEIL, ATI=MÜLL" zusammenfassen.. Qualitativ wirklich sehr unterirdisch.. sorry, aber das musste mal raus. ;)
 
Was soll man den machen, wenn hier Lügen auftauchen?

Ich habe etwas weiter oben ein paar Dinge geschrieben, es gab nur eine Antwort.
Keiner der Fans hier hat darauf etwas zu antworten gehabt!

Zu keinem Zeitpunkt habe ich AMD=Müll geschrieben. Meine Kommentare sind immer sachlich und mit Hintergrund, wenn da nicht jeder hinterherkommt ist das traurig.

Wenn du sachlich zu dem Thema schreiben kannst gut, ansonsten EOD.
 
naja, wenn man irgendwelche Spekulationen als sachlich bzw. als "mit Hintergrund" betrachtet.. dann bitteschön. Wie gesagt, warte doch einfach ab, bis es die ganzen Karten im Laden gibt. Dann wissen wir alle, wie schnell die REAL sind und dann kann ja immer noch weiter diskutiert werden ;)
 
zum letzen mal.
dx10.1 ist der neuste standard von microsoft um die bestmögliche leistung und qualität zu liefern.

nvidia ist dazu nicht in der lage, ati schon lange.

es liegt nicht an ati, diesen standard zu verbreiten, nur leider versucht nvidia diesen aufgrund von eigener unfähigkeit zu verhindern.

es ist eigentlich eher peinlich für nvidia, so der modernsten technik hinterherzuhängen.

alles, was du sagtest ist irgendwie nvidiafanboygelaber, weil sachlich hast du eben nicht recht.
 
wieso denkst du, dass es ein gerücht ist, dass nvidia nicht fähig ist im moment dx10.1 zu machen?

Weil sie nicht unfähig sind. ;)
Chips entwickeln sich sich nicht mal eben so in ein paar Monaten.
Der G80 war über 4 Jahre vor Release in der Entwicklung, der R600 mehr oder weniger ebenso lang, auf den Serverfarmen beider Hersteller laufen schon heute Simulationen für Chips die erst in 3-4 Jahren das Licht der Welt erblicken.
Sich nun einzureden nichts davon wär DX10.1 Hardware ist mild ausgedrückt geistiges Ejakulat.
Siehe auch erste G80 Gerüchte und "keine Unified Shader", was genauso Bullshit war.
 
Irgendwie unterstützt die Foren-Software bei den News-Komentaren noch kein DX10.1. oder warum sonst wird der Thread dort immer dünner ? ;)
 
Zuletzt bearbeitet:
@Unyu:


Ich kann dir auch Gerüchte presäntieren die behaupten die 4870 wäre 30% schneller als eine 9800GX2 :rolleyes:
 
Und alles was du sagtest, ist ebenfalls ATI Fanboygelabber...merkst du das überhaupt?

Du wirfst anderen Leuten vor, sie würden sich die NV Welt schön reden und wenn ich mir deine und die einiger anderer hier durchlese, hab ich das Gefühl, dass ihr euch die ATI Welt schön redet.

DX10.1 hin oder her, erstens ist es noch nicht BESTÄTIGT, dass der GT200 kein DX10.1 beherrschen wird.

Zweitens, MS hat selbst mal gesagt, dass DX10 eine Zeit lang als Standart geführt wird, aber kurze Zeit später führen die DX10.1 ein und halten sich nicht an ihr Versprechen!

Drittens beherrschte die X800 keine SM3.0, die GF 6 dagegen schon, doch irgendwie war das Gemeckere damals nicht so groß. Warum denn auch? Es war ja A.T.I....würde NV damals bei SM 2.0 bleiben und ATI würde SM 3.0 einführen, wäre das Gemeckere riesig.

Viertens waren ATIs Flaggschiffe, sprich die High End Modelle bis zur Radeon X19xx, auch erst ab 550/600 Euro zu haben. Jedoch zahlte man auch für brachiale Leistung. Warum wird also nun über NVs High End Modell gemeckert? Nicht weil man etwa Opfer von Negativ Gerüchten zum GT200 ist, sondern weil es eben Nvidia ist.

Unter "sachlicher Diskussion" verstehe ich, dass man neutral zu den Parteien ist und nicht gleich anfängt Gerüchte in vermeintliche Tatsachen zu verwandeln, um somit den Diskussionsgegner zu bashen. Desweiteren versucht man in einer sachlichen Diskussion nicht, den Gegner als dumm oder nicht lernfähig hinzustellen, indem man Begriffe wie "Nochmal für dich..." oder "Kapierst du es denn nicht?" verwendet.
 
Zurück
Oben