News GT200 von Nvidia mit 240 Shadereinheiten?

Schade, dass es noch so lange dauern wird bis die neue Serie erscheint, würde meine aktuelle gerne in Rente schicken.

Auch möchte ich nicht wissen, wie viel Strom dieses Ding verbraucht, da wird dann ein eigenes Netzteil mitgeliefert? :D
 
Könnte es nicht auch sein, dass die GT200 im Juli für 600-700 EUR kommen wird, parallel zur GF9900 (G92b)? Dann hätten sie eine exklusive Highend-Serie.
 
@75Cent
Bei RV770 munkelt man von 830Millionen Transistoren, 25% mehr als bei RV670.
Die Architektur bleibt die selbe, der Takt wird leicht erhöht, das Ganze als 55nm Chip ergibt 50% mehr Performance als RV670.
Für den High-End Markt 2 RV770 auf einer Karte, so eine tolle Konkurrenz ist das nicht.
50% schneller als RV670 ist gerade mal G92 Niveau, es bräuchte ein wahres Wunder, damit sich das noch bessert, zudem wird G92b ebenfalls in 55nm daherkommen, also wieder mehr Taktpotential haben und billiger sein, dank weniger Transistoren.

@IgG
Na klar, GT200 als High-End, G92b als neue Performance, G94 als Mittelklasse, G96 als Low-End und G98 als absolutes Low-End.
 
@Aeroon
du meinst wohl das fiskaljahr
die geschäftsjahre können firmen anfangen lassen wann sie wollen, hat aber hiermit nicht viel zu tun
 
@ all

ihr immer mit eurem 3Dmark...was zählt ist die wahre leistung in games

@ topic

naja, wenigstens wird man wohl kein SLI benötigen, um Crysis @ Sehr Hoch zocken zu können.
Hoffentlich bricht er auch nicht so wie der G92 bei AA+hohe Auflösung ein. Denke nicht, dass er den R600 im Stromverbrauch überflügeln wird.
 
bist du narrisch...

das wird a echtes rechenmonster - wenn denn das wirklich hinkommt. 512bit speicherinterface und 240Shader alus? das wären auf einem chip so viele alus wie bei 8800gt + 8800gts(G92) - hammerhart ;)
 
Momentan hört sich das nach einem würdigen Nachfolger der 8800GTX an!:king:
Der Preis dürfte wohl schocken,bestimmt um 500€ :eek:,zumal 512Bit Speicherinterface teuer in der Produktion,aber super für die Leistung sind!:D
Nach der bescheiden 9-er Serie muss nVidia ja etwas Gutes anbieten.

Ich bin auf die tiefer positionierten Modelle gespannt,es hat ja nicht jeder eine Gelddruckmaschine bei sich stehen.;)
Außerdem brauch ich auch eine neue Grafikkarte!:p
 
na hoffentlich sind die auch bezahlbar:lol: wenn man sich das beim start der 8800 Serie mal angeschaut hat wo erst die ultra mit 600€ auf den markt kam:lol:
 
lol nvidia muss echt aufpassen das sie nicht zu sehr hinterherfallen hinter ati, wenn dieses gerücht wirklich stimmt. Ati hat schon jetzt die bessere fertigung wie der chip laut den gerüchten ahben wird. Was passiert wenn amd in paar monaten die dinger schon in 45nm hat und nvidia noch bei 65nm rum hüpft, da kann amd nvidia preislich so unterbieten das nvidia bei der deutlich geringeren ausbeute keinen gewinn mehr macht.

Was jetzt noch der gau für nvidia wäre wenn amds neue gpu von der architektur her so überarbeitet wird das sie auch nur mit nvidia gleich zieht (von der leistung und sclalierbarkeit), dann gute nacht nvidia.

Nur mal noch ein hinweiß, auf so kleineren chips passen auch mehr transistoren und sie lassen sich besser kühlen, also ist es dann nur noch eine frage ob amd im highendbereich genug geld sieht also ne willensfrage keine könnensfrage.

Ansonsten wird amd wohl eher im low mid und mid-high end bereich nvidia das wasser abgraben und von ein paar wenigen leuten die karten für 500,- kaufen kann nvidia nicht leben. Dazu kommt noch der plattformvorteil den nvidia quasi auch nicht bieten kann. Kann mir nicht vorstellen das via ne größere alternative zu amd und intel wird, das bleibt ein nischenprodukt.
 
Zuletzt bearbeitet:
Re: Bezahlbarkeit

Ich habe meine 8800 GTX im November 2006 für 470 Euro bestellt, in voller Erwartung, dass sie max 1 Jahr "halten" würde. Jetzt hat sie schon einige Monate mehr auf dem Buckel, und das Preis/Leistungsverhältnis gefällt mir immer besser.

Wenn der letzte Zyklus also Beispiel für die Zukunft ist, dürfte sich ein frühe High-End-Investition durchaus wieder lohnen, vielleicht sogar über 500 Euro. (Wobei man bedenken muss, wie sich der Euro seit damals entwickelt hat ($1,28/€ -> $1,59/€), und wieviel $ mehr nVidia für seine Karten verlangt.)
 
incurable: das wird aber nicht noch mal passieren. Das ist davor nie passiert und wird jetzt auch nicht mehr passieren das amd so einen rohrkrepierer raus lässt wie die x2800xt.
Amd wird jetzt immer mindestens über den preis und zumindest änliche leistung bei nvidia dran sein. Das war naja für dich natürlich gut, aber für alle anderen leute ein trauerspiel das quasi ein jahr lang für nvidia kein grund sah die karte irgendwie zu verbessern oder billiger zu machen.

es wäre wirklcih kühn jetzt zu behaupten amds nächste karte ist sicher besser, aber ich bin mir sehr sicher das sie nicht viel schlechter sein wird und da amd nunmal im vorteil ist bei der fertigungstechnik wird amd nvidia mit dem preis jagen, also geh mit 99 prozentiger sicherheit davon aus das dies nicht nochmal so passieren wird.
 
@Jayhawk: Hohe Leistung im 3Dmark = Hohe Leistung in Spielen!!! Ein Rechner der 10.000 Punkte schafft rendert auch Crysis besser, als ein Rechner der "nur" 9.000 Punkte schafft. Der Benchmark ist also sehr gut geeignet, um die Systemleistung zu bestimmen.


Ja, der Stromverbrauch wurde schon öfter angesprochen und bereitet mir auch Sorgen!

Warum erfinden die nicht so etwas wie Cool'n'Quiet für GPUs. Ich weis, die takten in 2D runter, aber das reicht nicht! Der Stromverbrauch unter Windows müsste wirklich minimal ausfallen. Wenn man dann zockt, dann kann es ruhig entsprechend der Leistung auch Strom verrechnen, nur läuft ein PC wohl kaum nur zum Zocken, sondern eher die meiste Zeit fürs Internet und andere Dinge.

Ein PC sollte im Windows Betrieb keine 100 Watt brauchen und beim Zocken nicht mehr als 200 Watt. 65nm war schon ein guter Schritt. Hoffentlich schaffen sie es mit 45 nm.

MFG

McDaniel-77
 
Zuletzt bearbeitet:
bloß ati scheint ein wenig weiter zu seien. ham schon früher ihren neuen next gen chip angekündigt. denke auch,dass ati da biliger wird.
 
McDaniel-77 schrieb:
Ein Rechner der 10.000 Punkte schafft rendert auch Crysis besser, als ein Rechner der "nur" 9.000 Punkte schafft.
Eine X2900XT hatte eine überragende Leistung bei 3Dmark, in Spielen war sie aber mehr als dürftig. Also ein sehr schlechtes Beispiel...
 
Ein PC sollte im Windows Betrieb keine 100 Watt brauchen und beim Zocken nicht mehr als 200 Watt. 65nm war schon ein guter Schritt. Hoffentlich schaffen sie es mit 45 nm.

Nur mal als Vergleich:
mein Rechner (siehe sig) braucht idle ca 150-160W und last, also Crysis 290-300W
habe den q6600 auf 3400Mhz und die Graka auf 740/1050 Mhz.

also 100watt idle ist schon wenig für nen neuen Rechner:

PS: wenn ich alles auf default stell und sogar EIST aktivire brauch ich immer noch ca 130w im IDLE. Das hat mich ehrlich gesagt schon etwas enttäuscht.
 
Wie groß soll das Teil denn werden? Wenn schon die GPU größer is als beim G80 dann passt die Karte bestimmt nicht in mein Case^^.
Ob die dann auch für Crysis2 reicht?^^


mfg
 
512 Bit Speicherandbindung mit 1024 V-RAM hört sich auf jeden Fall schon vielversprechend an. Das klingt für mich auf alle Fälle nach einem wirklichen Generationswechsel. Zwar werden die Preise Anfangs wieder sehr hoch ausfallen, was sich dann aber im Laufe der Zeit hoffentlich wieder auf ein bezahlbares Niveau begibt. Ich bin gespannt.:)
 
Zurück
Oben