News Fotos und weitere Infos zum GT200 von Nvidia

Wenn du dem nichts entgegnen kannst, ist das schade, zeugt aber nicht davon das du es besser weißt.
 
es sind nur vermutungen, aber anhand der angaben, also >100,- allein die gpu, 512bit si... wie unyu schon richtig sagte, kann man zumindest davon ausgehn, dass die gtx280 preislich nicht mit der 4870 konkurrieren kann.
in dem punkt liegt ati sicherlich vorn.
bei der leistung dagegen wird nv mutmaßlich einen eindeutigen vorsprung haben.
ich denke, dass das ganze ähnlich aussehn wird wie 3870 zu 8800gtx, nur ne stufe höher (sowohl preis als auch leistung).
beide haben ihre daseinsberechtigung und beide finden ihre käuferschaft.

ob sich dx10.1 noch durchsetzen wird, steht wohl noch in den sternen. aktuell hat man noch keinen vorteil daraus mangels unterstützter spiele. aber ein pluspunkt für ati in sachen features ist es sicher. physix und openGL 2.1 sind pluspunkte für nv. keines der features ist aktuell wirklich nötig, aber erwähnen sollte man sie imho schon.
 
Zuletzt bearbeitet:
Gut, dass nVidia bewusst dem unsinnigen AMD-Hype um DX 10.1 die Schulter in den Weg stellt.

Aber 576mm² is einfach nur extrem.
 
Schulter in den Weg?
Och ne oder und gehypt iss des mal gar net. Wer brauch atm DX10?
Genausoviele wie 10.1.
Die Fläche iss extreem? Ey boah ey 1cm (oderso) breiter/länger wie der Vorgänger ... ;) subba
 
die riesige die fläche von nvidia wird dazu führen, dass die yieldrate nicht gut sein wird und nvidia eben viel geld pro funktionierenden chip bezahlen muß.
die trauen sich ja noch net mal auf 55nm runter, weil die angst haben, dann einen noch schlechteren ertrag zu haben

ati hat pro wafer doppelt soviele gpus wie nvidia, dazu wohl auch die bessere yieldrate. nvidia muß so teuer sein, es stand doch schon da, pro wafer gibt es nur 100 chips. und wafer sind alle gleich teuer, egal wieviele chips drauf sind.
davon abgesehen konnte man 500-600$ schon auf vielen anderen seiten lesen.
 
Zuletzt bearbeitet von einem Moderator: (doppelpost)
1. Was juckt es dich?
2. Es sind 240W TDP, normal für eine heutige High-End Karte und keine Überraschung.
3. Selber lol, solange AMD nicht D3D10.1 etwas pusht wird es weiterhin nutzlos bleiben.
4. Noch nicht begriffen? High-End = teuer.

Was stört dich am Namen? Wird neuerdings blind nach dem Namen gekauft?
PS: AMD hat natürlich keine neuen Namen.....
 
ne 9900GTX verbraucht ca 160 watt... wo sind da 240 watt normal?
dx 10.1 kommt von MS, net von ati und nvidia blockt es aufgrund von unfähigkeit dx10.1 zu implementieren, das es was bring hat ac gezeigt.

der bezug zu den namen war die verarsche von nvidia im bezug auf namensumbenennungen, so wird zB bald aus der 8800GT ne 98800 GT usw.

alles in allem schreibste ziemlich viel blech mein freund ;)
 
@Unyu

Sogar 240W aber ich denke mal sie wird am Ende weniger verbrauchen ^^ ( mein ganzer PC frist im load 120 Watt ^^)

Ich hoffe das DX10.1 in mehreren Spielen Einzug hält in Zukunft.

zu 4. wer das Geld hat, kein Thema ;)

Zu den Namen, damit meinte ich die Politik bei der aktuellen G92er Generation da wir einfach dreist aus einer 8800er eine 9800er gemacht und dem Kunden die gleiche Leistung für noch mehr Kohle verkauft :(

@cosmicparty

Danke :D
 
Zuletzt bearbeitet:
Die HD2900XT verbraucht am Ende auch nur 160W, die TDP ist weitaus höher als diese 160W.
GT200 hat eine Daukappe, isoliert schön, man muss die TDP höher ansetzen, weil der Kühler bei selber Abwärme schwerer zu arbeiten hat, um die Temperatur zu halten.

Hoffen ist ja immer gut, dann muss AMD aber echt mal den Arsch bewegen und die Entwickler unterstützen, sonst stirbt D3D10.1 noch.

Nö, die 9800 ist nicht exakt gleich, zb bessere Stromversorgung, bester GDDR3, Hybrid-SLI. :)
Ist halt nicht so billig, weil sie keine Konkurrenz hat, da kann man schon mal 50€ mehr verlangen. ;)
Außerdem was ist mit den anderen GF9? Was ist mit der 9600GT? Super Karte zum guten Preis.
Der einzige Fehler ist imho den G92 noch als GF8 rauszubringen, dann wäre diese ganze Diskussion nie entstanden.
 
nochmal, damit du es auch kapierst.

dx10.1 ist der neue standard von microsoft, es ist keine ati erfindung. also muß nicht ati den arch bewegen, denn die können es schon, sondern nvidia muß mal aus dem tiefschlaf aufwachen und dx10.1 fähig werden.

das dx10.1 in sachen optik und perfomance viel bringt hat ac gezeigt.

nochmal... nvidia hängt der zeit hinterher, ist eben unfähig dx10.1 zu implementieren, so sieht es nun mal leider aus.
 
Das sogenannte "Unwissen" hatte ich auch und hab mir ne 8800GT gekauft was sicher nicht schlecht war! Aber ich glaube die 88 muss packen! Wenn die Benches stimmen wird eine 4870 bei mir ihren Platz finden!
 
Damit du es verstehst:
AC hat nur dank NV D3D10.1 Support, also wenn NV nicht wäre gäbe es jetzt exakt 0 D3D10.1 Spiele am Markt.
MS ist nicht dafür verantwortlich was die anderen Spielentwickler tun.
AMD hat D3D10.1 Karten, muss also dafür sorgen, das diese auch Sinn machen, sonst ist dieser Vorteil sinnlos.

AC hat gezeigt, das auf Marketingfolien das MSAA mehr Kanten glättet.
AC hat gezeigt, das AMD etwas von der bei AMD mieseren D3D10 Performance wieder gut machen kann, wie du das jetzt auf NV übertragen willst ist mir schleierhaft.

Hast du damals bei SM3.0 auch so geheult? Das wurde übrigens weitaus schneller wichtig, nach dem jetztigen Stand wird D3D10.1 nicht diesem Pfad folgen.
 
Der GT200 hat sich für mich klar disqualifiziert

NoGo Nr.1 größere Ferting Als bei AMD/ATI (65nm zu 55nm bei ATI)

NoGo Nr.2 zu hoher Stromverbrauch 200 Watt+ daraus resultierend->sehr heiß,warscheinlich sehr laute kühlung, und schlecht Leistung pro Watt (Für Was ?)

NoGo Nr.3 Warscheinlich kein DX 10.1 Unterstützung

NoGo Nr.4 hoher Preis 499 US-Dollar=499 Euro in Deutschland (Wer die Kohle hat ok ;) )


@Mod
Sollte der Post nocheinmal gelöscht werden ich habe den Text in einer Textdatei gespeichert ;)
 
Zuletzt bearbeitet:
@ Unyu (Nvidia-Missionar):
Was soll denn Ati bitteschön deiner Meinung nach unternehmen, dass Directx 10.1 umgesetzt wird? Mehr als den Support bei den eigenen Grafikkarten zu geben ist ja wohl kaum möglich, odda? Oder sollte man auch - wie ein anderer großer Grafikkartenhersteller - für ein nerviges Introvideo bei jedem Spiel ein hübsches Sümmchen rüberwachsen lassen? - Hm? :)
 
cosmicparty schrieb:
dx10.1 ist der neue standard von microsoft, es ist keine ati erfindung. also muß nicht ati den arsch bewegen, denn die können es schon, sondern nvidia muß mal aus dem tiefschlaf aufwachen und dx10.1 fähig werden.

Besser hätte ichs auch nicht ausdrücken können, perfekt ;)

Warten wirs ab, das wird nVidea>"Neid " noch auf die Füße fallen, denn es werden nicht nur T.W.I.M.T.B.P-Titel rauskommen ;)

Zum Glück für nVIDEA ist in dem allerneusten Penismark noch kein DX10.1-Test eingebaut ^^


Magic
 
Zuletzt bearbeitet:
Wie wärs mit einem Entwicklerteam vorbeischicken? Hm?
Oder meinst du die bauen 10000 Stunden lang an einer Abfrage: if AMD then fps/2
 
nvidia hat sich selber in eine sackgasse bewegt, man darf nicht vergessen, dass nvidia nun auch dem weg von ati folgt und eher auf kleinere chips in der zukunft setzen wird.

das man keine zwei gt200 mit ner tdp dann von fast 500 watt auf eine karte basteln kann, sollte auch klar sein.

davon abgesehen empfinde ich eine steigerung von 50% gegenüber einer 9800GTX bei so einem riesenchip als eher armseelig, wenn ati schon bei +25% liegt.

wie schnell wird dann nur eine 4870 x2? da ist ende im gelände für nvidia dann
 
omg. dann soll MS teams schicken um was zu erklären... am besten ein team von MS zu nvidia schicken und denen dx10.1 erklären *g*
 
Unyu schrieb:
AC hat nur dank NV D3D10.1 Support, also wenn NV nicht wäre gäbe es jetzt exakt 0 D3D10.1 Spiele am Markt.

Ich denke ehr NV hat davon nix gewußt, sonst währe das Spiel nie mit DX10.1 rausgekommen.

Es währe auch dumm ein Spiel mit besserer Qualität rauszubringen wenn die eigenen Chips es garnicht darstellen können :D
 
Zurück
Oben