News GTX 480: Zur CeBIT gezeigt, verfügbar ab April?

hydrox schrieb:
Ist sicherlich nicht gerade schön für Nvidia gewesen die "Winterkaufwut" nicht nutzen zu können aber sie werden sich sicher etwas dabei gedacht haben.

Ich für meinen Teil habe mir angewöhnt eher im Sommer neue Hardware zuzulegen...
Ich hatte im August (2009) für meine Hitachi 1TB Festplatte 59,- EUR bezahlt, teilw. lag sie bei 79,- EUR und derzeit glaub ich bei 72,- oder so.
Mal davon Abgesehen stört im "Winter" erstens die Jahresabrechnung für Strom/Heizung (immer Nachzahlung egal wie wenig man heizt).
Zweitens kommt bei mir im Nov. die KFZ Steuer und im Januar die KFZ Haftpflicht Versicherung und div. andere Versicherung die nur 1x im Jahr abbuchen.
Dann braucht man noch den Februar um wieder ins Plus zu kommen.

Im Sommer ist der Andrang im PC Shop auch nicht so groß :)
(ich kaufe meist bei K&M; evtl. auch mal Alternate per Post)

P.S. da beide Karten (nv und amd) rel. teuer sind, werde ich schon mal zur Bank gehen
und fragen ob sie auf 9mm rausgeben können ;)
Ergänzung ()

Thomson1981 schrieb:
Warum AMD/ATI da noch immer lieber Intel unterstützt und auf GPU Havoc Physik setzt,anstatt sich lieber mit Nvidia zusammenzutun und PhysX zu unterstützen,ist mir immer noch ein Rätsel.

Gerade weil ja Intel der größere Gegner für AMD/ATI ist,als Nvidia.

Ich vermute mal es liegt daran, das Nvidia der direkte Konkurent zu AMD im Grafiksektor ist.
Intel ist zwar der direkte Konkurent für AMD bzgl. x86 CPUs, aber die müssen sich immer
noch teilw. einigen, damit der eine die Technologie des anderen z.T. benutzen darf.
Intel die 64-bit Erweiterung ihrer CPUs (mit AMD Know-How) und AMD generell die "Erlaubnis" x86 CPUs fertigen zu "dürfen".

Ich kann mich was derzeit die nv/amd Grafikkarten Sachen angeht entspannt zurücklehnen.
Ich hab noch meine GTX285 drin, und die macht bei meinem zukünftigen Online-Dauerspiel
Battlefield Bad Company 2 mit ALLEM auf High zw. 40-60 fps.
(mit spez. Tool alles auf max. gedreht)
Derzeit seh ich keinen Grund die GTX285 deswegen rauszuschmeissen.
Ich denke mal da es bei BC2 noch die BETA ist, könnte beim Release und verbesserten Grafiktreibern noch etwas mehr an fps rauskommen.

Mein AMD Phenom II X4 940 BE hat derzeit bei BC2 auch noch genügend "Luft nach oben".
Der wird je Kern (4Core) mit 50% ausgelastet und ist derzeit auch nur auf 4x 3GHz eingestellt. Bis 3,6 Ghz kann ich gehen.
So wird mein PC wohl noch mindestens ein Jahr so bleiben wie er ist. ;)
 
Zuletzt bearbeitet:
Calypso26 schrieb:
@terraconz

was sind denn die ganzen Nvidia-Only Features? So ausser PhysX?

Ja ich meinte Sachen wie Physix, CUDA, 3D Vision, Hybride Filtermodi, besseres AF, Linux Support, TWIMTBP...........
Wie wichtig das dem einzelnen ist kann ja jeder selber entscheiden, ich für meinen Teil nehme es gerne mit wenn ich es gratis dazubekomme. Bei ATI habe ich leider nichts dergleichen.
Das Physix tot ist sehe ich ausserdem nicht ganz im Gegenteil imho kommen immer mehr Titel raus die die Physiks API nutzten. Habe mal kurz auf der Nvidia Seite nachgesehen, finde das ist schon ne Menge:

Batman: Arkham Asylum/Rocksteady Studios/PC
Crazy Machines II/FAKT Software/PC
Cryostasis/Action Forms/PC
Dark Void/Airtight Games/PC
Darkest of Days/Phantom EFX/PC
Tom Clancy's Ghost Recon Advanced Warfighter 2 (GRAW2)/GRIN, Ubisoft Paris/PC
Metal Knight Zero Online (MKZ)/ObjectSoftware Limited/PC
Mirror's Edge/DICE/PC
Nurien/Nurien Software/PC
PT Boats: Knights of the Sea/Akella/PC
Sacred 2/ASCARON Entertainment/PC
Star Tales/QWD1/PC
Unreal Tournament 3/Epic Games/PC
Unreal Tournament 3: Extreme Physics Mod/Epic Games/PC
U-WARS/Biart Studio/PC
Warmonger: Operation Downtown Destruction/Net Devil/PC
Und das sind nur die die auch auf Physix fähige Hardware zurückgreifen!
Rechnest du jetzt noch die Games die die Physix API verwenden kommst auf >100 (weiter wollte ich nicht mehr zählen) und das sind keine Minigames oder dergleichen sondern AAA Titel ala Dragon Age, Gears of War, Brothers in Arms, Age of Empires, Empire Total War, Gothic 3, Mass Effect und und und.........

Auch die anderen Gratis Features sind doch toll zu haben, oder? 3D Vision ist zwar atm noch kein Thema für mich aber beim nächsten Monitor/TV Kauf fließt das in die Entscheidung mit ein so das ich nur noch die Brille kaufen muß. IQ und Filter wurden eh schon zur genüge besprochen denke ich also geh ich da nicht nochmal drauf ein.
Das TWIMTBP Programm ist super als Spieler da sich die Firma drum kümmert das die Spiele ab Release laufen das ist bei ATI leider nicht so oft der Fall. Siehe Sachen wie Shift, Borderlands, GTA 4 usw..... Da bin ich froh das Nvidia darauf schaut und mit den Developern zusammenarbeitet, sie investieren da ja auch viel Kohle in den Bereich und dementsprechend ist das Resultat. Ohne Nvidia wäre z.b. ein Batman AA ein völliges anderes Game geworden und wer weiß wie es dann ausgesehen hätte.
Und auch CUDA ist toll da es atm schon ne recht breite Unterstützung erfährt und für den Consumerbreich ein paar nützliche Tools rausschauen.

Ich betrachte halt nicht nur die reine Karte und den reinen Endpreis eines Produktes sondern schaue auch was mir der Hersteller sonst noch bietet und da ist für mich Nvidia atm vorne, was natürlich nicht heißt das AMD das nicht auch könnte sie tun es halt nur nicht.
 
terraconz schrieb:
[...], ich für meinen Teil nehme es gerne mit wenn ich es gratis dazubekomme.

Gratis Feature?
Die 200 Serie war teurer als die AMD Grakas und die Thermie wird es laut Gerüchten auch...
 
@terraconz

Die Liste mit Hardware unterstützenden Spielen ist ehrlich gesagt nicht wirklich beeindruckend, soweit ich weiss laufen alle Spiele ausser Batman auch bei AMD-Grafikkarten ohne Probleme.

P.S. Bin auch stolzer Besitzer eines PhysX-Chips, habe aber die Grafikkarte nicht wegen diesem Feature gekauft.
 
Gute Grafikkarten gibts momentan auch von ATI ohne das wir Nvidia haben, klar ich hab Konkurrenz auch lieber, aber was nicht ist. Sind wir froh, dass wenigstens ATI richtig gute Grakas herstellt - und ab und an auch liefern kann ;)

zum post über mir: ne gt 330 iss doch sicher irgendwas superlahmes. so 8800gt niveau oder?
 
@L4C3: es geht ja nicht darum, dass physx-titel nicht mit einer ati laufen würden, sondern dass sie mit einer physx-fähigen karte mehr zu bieten haben. mit einer 5450 laufen auch alle spiele, aber mit einer 5870 lassen sich auch mehr optische schmankerl wie aa und af zuschalten ;)
bei physx sinds eben physik-effekte die man zuschalten kann, wenns die karte unterstützt.

@Erinnje: das ist ne 9600gso

@fulgent: seit wann ist ne 8800gt superlahm? Oô was ist dann erst eine 5670? sicher keine office-karte ;)
 
@ Nod. sunrise

eher logisch

dx 9 gt200
dx 10.1 gt300
dx 11 gt400

Die 200 Serie war teurer als die AMD Grakas und die Thermie wird es laut Gerüchten auch...

Nvidia war schon immer besser und teurer... Zu Nvidia greift man halt wen man das geld dazu hat P/L Sparfüchse kaufen sich ne Ati war zumindest bis sept 2009 so
 
@L4C3: Alle Spiele mit GPU Physx laufen bei deaktiviertem GPU Physx problemlos auf ATi Karten, die spielrelevante Physik wird ja eh von der GPU berechnet.
Da Effektphysik zukünftig aber eh via DX11 oder OpenCL berechnet wird ist das nun eh irrelevant.
@terraconz: Mal ein Feature, das ATi vor NV hatte und für manch einen nützlicher sein dürfte: HDMI mit Audiostreaming und ein besserer Videodecoder. Außerdem hat die 5K Reihe bei der Bildquali wieder deutlich zugelegt. CUDA war ein Bonus, wird aber bei den meisten Programmen sicher vom DX11 Compute Shader und OpenCL abgelöst.
 
@lübke ne 8800gt iss doch superlahm, wenn man die Relationen sieht. Das Ding liefert nichtmal die Hälfte an Leistung einer 5850 und das schon ohne aktiviertes AA AF etc., mit AA AF geht das stark in Richtung 5850 iss dreimal so schnell. Wie soll denn die gegen Fermi bestehen. Die 8800 gt ist immerhin schon über 2 Jahre auf dem Markt. Finde das Prädikat superlahm also durchaus passend :) (selbst hab ich ne 8800GTS 512 die ich hauptächlich noch immer hab, weil sie relativ leise ist ;) )
 
Ich finde man sollte erst mal immer die aktuellste Generation miteinander vergleichen. Der Platzhirsch der aktuellesten Generation bei Nvidia ist die GT 330 und bei AMD die HD 5870 ;-)

@terraconz: der schlechte Linux-Support bei AMD ist Geschichte. Es gibt den fglrx und einen OpenSource Treiber, bei dem AMD die Spezifikationen offen gelegt hat und bei der Entwicklung hilft. Bei Nvidia hat man diese Möglichkeit nicht.
 
Zuletzt bearbeitet:
Ja ich meinte Sachen wie Physix, CUDA, 3D Vision, Hybride Filtermodi, besseres AF, Linux Support, TWIMTBP...........
Wie wichtig das dem einzelnen ist kann ja jeder selber entscheiden, ich für meinen Teil nehme es gerne mit wenn ich es gratis dazubekomme.

Ist es nicht ein bisschen sehr naiv anzunehmen, diese Features gratis dazu zu bekommen?

Natürlich sind die alle in den Endpreis einer Grafikkarte eingepreist.

Und das ist u.a. eine der Ursachen für das vergleichweise hohe Preisniveau, auf dem sich nVidia-Karten bewegen.

Geschenkt jedenfalls bekommt man als Kunde von denen das jedenfalls nicht.
 
Ich wüßte noch etwas,wo Nvidia Grafikkarten auf alle Fälle mehr zu bieten haben.

Multi GPU Systeme über SLI !

Bei Nvidia SLI Systemen hat man schon vor einem Jahr,seit dem 182.50 Treiber keinerlei Microruckler mehr und kann daher die volle Leistung seines SLI Systems fahren,selbst bei den höchsten Anforderungen der grafiklastigsten Spiele + AF & AA kommt man hier nicht in Schwierigkeiten und hat immer noch 100% flüssigen Spielspaß mit seiner GTX 295,oder selbsterstellten High End SLI Gespannen.

Bei ATI Multi GPU Systemen hat man selbst mit einer 5970 immer noch Microruckler,die einen bei manchen Spielszenarien alles versauen können und einem nahezu den kompletten Wert des teuren Crossfire Multi GPU Systems zerstören können.

Daher hat man wohl selbst mit einer GTX 295 oder 2-3 GTX 275/285 immer noch mehr Spielspaß und mehr Leistung,als mit der allerteuersten 5970 für über 600 Euro.
 
Thomson1981 schrieb:
Ich wüßte noch etwas,wo Nvidia Grafikkarten auf alle Fälle mehr zu bieten haben.

Multi GPU Systeme über SLI !

Bei Nvidia SLI Systemen hat man schon vor einem Jahr,seit dem 182.50 Treiber keinerlei Microruckler mehr und kann daher die volle Leistung seines SLI Systems fahren,selbst bei den höchsten Anforderungen der grafiklastigsten Spiele + AF & AA kommt man hier nicht in Schwierigkeiten und hat immer noch 100% flüssigen Spielspaß mit seiner GTX 295,oder selbsterstellten High End SLI Gespannen.

Bei ATI Multi GPU Systemen hat man selbst mit einer 5970 immer noch Microruckler,die einen bei manchen Spielszenarien alles versauen können und einem nahezu den kompletten Wert des teuren Crossfire Multi GPU Systems zerstören können.

Daher hat man wohl selbst mit einer GTX 295 oder 2-3 GTX 275/285 immer noch mehr Spielspaß und mehr Leistung,als mit der allerteuersten 5970 für über 600 Euro.

Das halt ich für einen Unsinn.
Ich hab nen Freund 2x 5770 im CF Gespann eingebaut auf ner Auflösung von 1920x1080 und alles auf Enthustiast, merkt man keinerlei Mikroruckler...

Da man sowieso µRuckler ab einen FPS Wert von kleiner 30-35 spürt...

Sag mir hast du ein SLI oder CF System?
Wenn nicht kannst du es selber gar nicht beurteilen und bitte deine Kommentare dazu sparen...
 
AwesomeSauce schrieb:
Aufgrund einiger Aussagen von Nvidia gehe ich davon aus, dass wir zunächst nur 448-Core-Varianten sehen werden, 512 Cores-Karten werden eine B-Revision brauchen, um anständige Yields zu erzielen. Demnach hätte eine GTX470 nur weniger Takt als eine GTX480, deswegen auch die geringe Abstufung von 70 zu 80.
Meine Vermutung vom 3.2 scheint immer wahrscheinlicher zu werden:
XMAN26 schrieb:
As I said, to get more than the hand full of working 512SP parts they have gotten from all the A1-A3 runs to date. My understanding from someone who works in RTP for nvidia, A1-A3 has produced jack in terms of 512SP parts and they are planning a B1(a complete respin of all layers) run in April in hopes of improving the number of 512SP parts coming off the line. Launch products will be 448SP parts with 512SP parts being PE parts if shown at all. Given all teh Fermi parts seen todate have been confirmed as 448SP chips, this seems very plausable to me.
http://forum.beyond3d.com/showpost.php?p=1392402&postcount=3812
Daraus kann(!) man schliessen, dass alles bisher gezeigte von GF100 nicht der volle Ausbau (aka 512CCs) waren. Ailuros dazu:
Ailuros schrieb:
NV besteht darauf dass es keine 480-er waren. Mehr kann ich offensichtlich nicht wissen.
Verdammtes NDA:D

Discuss! :)
 
NoD.sunrise schrieb:
Die 400 / 300 Benennung ist ja mal wieder der Hammer
Kannst du das auch begründen? Das wirkt sonst nur wie eines der zahllosen flames...

Ich finde es gerade gut, dass Nvidia die Fermis als 400er veröffentlicht, um Verwechselung mit den teilweise rebrandeten 300er zu vermeiden.
 
Einhörnchen schrieb:
Kannst du das auch begründen? Das wirkt sonst nur wie eines der zahllosen flames...

Ich finde es gerade gut, dass Nvidia die Fermis als 400er veröffentlicht, um Verwechselung mit den teilweise rebrandeten 300er zu vermeiden.

stimmt aber einige schnallen das immer noch nicht
 
@ Amandil

Ja ich habe ein SLI System,seit 2 Jahren glücklicher Besitzer einer Nvidia EVGA 9800GX2 und seit dem legendären 182.50 Treiber bin ich sogar wunschlos glücklich damit seit 1 Jahr,da seitdem 0% Microruckler. Selbst bei 1920x1200 Auflösung auf einem 16:10 24 Zöller,16xAF und 4xAA bei nahezu 90% aller Spiele butterweiche 50-60 FPS ohne Ruckler.Nur bei Crysis und dem neuen Stalker geht ihr die Luft aus und ich muß AA abschalten,oder mit der Auflösung runtergehen und das Bild hochskalieren lassen.

Als Vergleichsbasis habe ich mal ein System von einem Kumpel mit der 3870X2 gesehen.Far Cry 2 war damit unspielbar bei 1920x1200 Auflösung + 16xAF & 2xAA,während ich es mit meiner EVGA 9800GX2 problemlos flüssig spielen konnte mit etwa 30-40 FPS.

Da eine GTX295 vergleichsweise nur leicht hinter einer ATI 5970 liegt,wird es hier wohl nicht viel anders aussehen im Vergleich,wenn man ein Spiel und eine Auflösung + Grafikeinstellung nimmt,die die Karten richtig fordert.

ATI hat ja immer noch nichts unternommen gegen die Microruckler,da herscht ja immer noch Stillstand in der Entwicklung bei Multi GPU Systemen in diesem Bereich.
 
Oh man, ich will endlich die GTX 480 haben! wie lange soll ich noch warten? Bis September?
 
Zurück
Oben