Test GeForce GTX 280 im Test: Neues Nvidia-Flaggschiff lässt die Konkurrenz hinter sich

Schinzie schrieb:
wieso kann man net dualcores mit singlecores vergelichen, wenn der preis der selbe ist?



gruß

Ist mir auch ein Rätsel...

Wenn die GTX280 ein Core hat, schön für sie. Wenn ATI bei gleichem Preis mehr Leistung bietet, kann man das doch vergleichen, und wenn es 6 Cores sind. Für mich zählt nur Preis / Leistung, und da ist es mir ehrlich gesagt völlig egal woher die Performance kommt, und von wie vielen GPUs.
 
Zuletzt bearbeitet:
@ cosmicparty

natürlich wird die GTX 260 "beeindruckend schneller"

Genau UNENDLICH schneller, wenn die 9800GTX mal wieder abstürzt weil der Vram überfüllt ist!

Wehe mir vergleich noch einmal jemand Multi GPU, inkl. Microruckler, SLI/CF Nachteilen mit dem neuen Monster hier!
 
Zuletzt bearbeitet:
im übrigen hat die GTX280 auch mehrere cores, sogar 240cores...

zudem kann man doch davon ausgehn,dass die neue GTX eine high end karte ist,also für enthusiasten...diese kennen sich in der regel besser mit hardware aus, wären also auch im stande, jedes multiGPU system zum laufen zu bringen (sei es SLI oder CF), womit sie günstiger mehr leistung erzielen können. wieso sollte man dies also net vergleichen? wobei mutli gpu sogar für nen "freak" mehr reize bietet,da er da wenigstens was zum tun hat, und dafür mit mehr leistung belohnt wird.


für nen kiddy mit reichen eltern und 0 Ahnung ist sicherlich mom die GTX280 das beste, sollte klar sein.

gruß
 
das man dualgpus nicht mit single gpus vergleichen kann ist die derzeitige ausrede von Nvidia fans dafür das Nvidia die Grafikkrone verliert. Des wird dennen herzlich egal sein ob die dual gpu sogar günstiger ist oder nicht.

ich bin schon gespannt auf die ausrede in nem halben jahr wenn dann im high-end nurnoch dual-gpu benutzt wird und Ati immernoch schneller sein sollte.
 
Was soll das eigentlich?:freak:


Wo bleibt die Next-Generation-Karte? Dafür soll man 500€ hinblättern?:grr:


Aber nach dem Release der 9800 GTX war diese Aktion zu präsumieren...
 
In 2 Jahren 50% mehr Fps ist erbärmlich ...

cYa
 
Würde wie auch LordMephisto dafür plädieren, den Energieverbrauch ins abschließende Fazit zu integrieren, denn es ist wirklich nicht zeitgemäß wenn Nvidia Grafikkarten von Generation zu Generation mehr Strom verbrauchen, v.a. jetzt da die Klimadebatte so stark entbrannt ist.

Ansonsten kann ich nur für den umfangreichen und aufschlussreichen Test gratulieren. Schade nur dass keine Radeon HD 3870X2 CF in den Tests waren, wäre ein interessanter Vergleich zu den Geforce GTX 280 SLI gewesen.

mfg

a-b-d
 
Blacktail schrieb:
Omg hab ich es nur mit Barbaren zutuhn? die treiber sind noch nicht ausgereift ihr werden sehn was für performace noch die karte bringen wird,mit der zeit wird die 280gtx billiger und leistungsfähiger ähnlich wird das mit der neuen geforce generation sein,aber hauptsache erstmal rumflamen und keine ahnung haben,direkt meinen die graka wäre scheisse.
Jo zügel dich mal im Ton. Ist ja peinlich oder sprichst du auf der Straße auch so mit den Leuten? Hoffentlich fängste dir dann nicht mal ein Paar heiße Ohren ein unterwegs.

Zumal für das Spiel auch Patches entstanden sind und man nie so genau weiß, was alles in neuen Treiberversionen an Qualitätsveränderungen vorgenommen worden sind.

MM91 schrieb:
@Blacktail: So einfach ist es dann doch nicht.

Zwei verschiedene Testsysteme!:lol:
:lol:

@Topic
Mich wundert es wirklich, dass so wenige ein Problem mit dem Stromverbrauch haben. Damals bei der x2900xt haben sich alle die Bäuchen gehalten ob der Ausmaße und deren Verbrauch.
Nur weil hier die Leistung höher ist, muss man das Kühlkonzept und die Abwärme nicht unter den Tisch fallen lassen. Hoffentlich bieten da findige Reseller andere Lösungen für an.
Ich hoffe doch sehr, dass diese Karte jetzt nicht wieder jahrelang der Platzhirsch bleibt, nur weil es sonst nichts anderes gibt, was nicht noch heißer und fetter wäre.

Auf der einen Seite werden Leute mit Monitoren >= 22" als Exoten tituliert. Auf der andere Seite spannen sich Kunden so ein Monster vor ihren lächerlich winzigen 19" Schirm. Ich habe hier derzeit den PC vom Kumpel aufgebaut und er hat nur 19". Die Größe kommt mir mittlerweile vor wie ein Gefängnis.

Da is mann bei Hardwareluxx 100 mal besser aufgehoben !!
Dann bleib da. Ein Niveau, wie du es an den Tag legst, werde ich hier nicht vermissen. Übertaktete Quadcore und E8400 auf 4Ghz und Co sind nicht Highend, nein nein :stock:
 
Zuletzt bearbeitet:
naja,wenn dann würde ich eher sagen,dass Hardwareluxx eher rot ist, als CB^^



gruß
 
Einige hier sind wohl wieder in ihrer Traumwelt untergegangen vor dem Release? Die GTX 280 ist "nur" ein Refresh vom G80, 50-60% mehr Leistung ist für einen Refresh ganz ordentlich...
Kann hier beim besten willen nicht meckern, welcher Refresh hat denn schon einmal mehr als 60% Leistung gebracht?

@ Schinzie

Für dich auch: Nochmal alle Tests von SLI und CF lesen...
Microruckler sind noch da.
Microruckler können selber nicht gefixed werden, auch nicht von erfahrenen high end Usern...
Solange Microruckler existieren, kannst du die FPS von single und multi GPU Karten nicht vergleichen.
Sobald ATI oder NV die SLI/CF Kinderkrankheiten ausgemerzt, kannst du die Karten vergleichen.
Bis dahin: Zur Hölle mit SLI/CF solange SLI/CF nicht gefixed ist.

MfG Kasmo
 
ich hoff die 4870x2 von ati haut richtig rein, dann wird die bei mir im pc arbeiten :D
 
Lol schöne Sache, die die hier am meisten Geschrien haben oh G200 wie Toll
sind Entäuschd.

macht mal die Augen auf

9800 GX2 Dual GPU
GTX 280 Single GPU schneller als ne 9800 GX 2.

Mehr brauch man ja wohl nicht dazu zu sagen.
 
Zuletzt bearbeitet:
Schinzie schrieb:
wieso kann man net dualcores mit singlecores vergelichen, wenn der preis der selbe ist?



gruß

Weil das extrem auf die Anwendung ankommt. Die Leistung von QuadCores im Verhältnis zu Dual- oder gar SingleCores ist heute nicht repräsentativ für die Leistung in zukünftigen Applikationen. Deshalb geht das nicht. Für Grafik gilt das eigentlich ebenfalls aber nur beschränkt. MultiCore-Unterstützung per Software für Grafik kommt mit D3D11, allerdings ist AFR ein Weg, der das schon heute mehr oder weniger gut leisten kann.
 
Zuletzt bearbeitet:
y33H@ schrieb:
In 2 Jahren 50% mehr Fps ist erbärmlich ...

cYa

Na-ja. So würde ich das nicht sagen. Nur weil G80 so toll war, muss man den G200 ja nicht schlecht reden. Nach deiner Definition wäre ja der G200 besser, wenn der G80 schlechter wäre, was eine blöde Sichtweise ist. Ein Blick auf Leistung/Watt und Lautstärke und die Konkurrenz ist da etwas realitätsnäher. Die Karte ist leider zu Laut und Stromhungrieg. Da bleibt nur auf den G200b in 55nm zu warten und hoffen, dass der auch wirklich kommt.

Davon abgesehen sind FPS nicht alles. Die Karte hat genug FPS und wenn Cuda wirklich durchstartet, gibt es da noch etwas mehr auf der Habenseite. Aber da müssen wir auch erst mal abwarten. Die Tesla-Karten dagegen können schon jetzt dort überzeugen
 
Zuletzt bearbeitet:
echt peinlich was manche schreiben...
am anfang war ich auch enttäuscht, jedoch ist es eine recht gute karte geworden die sicherlich noch mehr leistung mit optimierten treibern liefern kann...
der preis ist klar übertrieben, das war aber bei jedem launch so...
cYa
 
Schinzie schrieb:
wieso kann man net dualcores mit singlecores vergelichen, wenn der preis der selbe ist?

gruß

Es ist halt ein neuer Single-Core Chip, um ihn sauber zu bewerten musst du ihn mit dem Single Core der Vorgänger-Generation vergleichen (eigentlich dem G80, da der G92 lediglich ein Fresh-Up war).

SLI oder CF kannst du mit jeder Single core Karte machen.

Und GX2 und X2 sind halt nur Verbunde auf ein Kartenlayout gelötet. Sozusagen SLI oder CF onboard.


Wenn du nen Phaenom 4 Kern mit nem Core2duo und entsprechender Anwendung vergleichst, ist die AMD CPU evtl. auch überlegen. Daraus dann zu schliessen dass der Core2Duo die schlechtere CPU ist wäre falsch.

Soll heissen: Vergleiche den GTX280SLI mit GX2 oder X2. Das wäre korrekt. Der Preisunterschied ist dann nat. gewaltig, aber auch die Performancedifferenz.
Man muss bedenken. Das ist ein neuer Chip und nat. ist dieser jetzt erst mal maßlos überteuert. Das war aber schon immer so. Wenn du nur nach P/L gehst dann ist jede neue CPU scheisse.

In jedem Fall ist der neue Kern technisch gesehen in keinem Fall ein Flop. er steht nur schlechter da, weil es viele DualCore Karten am Markt sind.

Fakt ist aber auch : Die GT200 Chip wird seinen Platz über kurz oder lang auch auf DualCore Karten finden, einem Schrink unterliegen, abgespeckt werden und als Midrange verkauft werden.

Und insgesamt wird alles stark im Preis fallen. Dann relativiert sich alles und das P/L Verhälnis wird besser.
 
wolf-cottbus schrieb:
@KAOZNAKE,
ich kann nichts dafür wenn deine Ansprüche so niedrig sind. Du kannst deine Bedürfnisse nicht auf andere übertragen. Ich kann schon begreifen wofür ich mein Geld ausgebe. Ich nehme Hardware eben nicht persönlich.
Die Karte ist für mich perfekt. Andere werden was anderes kaufen. Dürfen sie auch. Deswegen muss man nicht persönlich werden.

Gruß Wolf

Sorry, war nicht so gemeint, bitte nicht zu persönlich nehmen.

Bloß muss man sich halt schon fragen lassen, wozu jemand eine GTX280 für nen 22"er kaufen will? Vor allem, wenn er schon ne 88GTX hat!? Mit der 88GTX kann man aufm 22"er alles problemlos zocken. Ich hab "nur" ne 3870 und da gehts auch. OK, wenn man Schlagmichtot-Kantenglättung brauch, alles klar, aber ist das 500€ wert? Ich kann dir nur empfehlen, noch ne Weile zu warten, denn durch die 4870 wird der Preis der GTX280 definitiv sinken und außerdem steht der Nachfolger der GTX280 schon in den Startlöchern, ein auf 55nm geshrinkter GT200. D.h. für weniger Geld mehr Leistung, geringere Stromaufnahme und Lautstärke.

Aber mach ruhig, ist ja deine Kohle.

Kasmopaya schrieb:
@cosmicparty

Eine 9800GTX 512 soll gegen eine GTX 260 den hauch einer Chance haben? Wenn du das wirklich glaubst: Nochmal alle Testberichte der 9800GTX lesen und darauf achten was mit der Karte unter DX 10 passiert wenn der Vram voll ist!

Spricht ja nicht grad für ne NVIDIA-Graka...

Und im übrigen: SC-Grakas lassen sich prima mit DC-Grakas vergleichen, braucht man nicht mal n CF/SLI-Mainboard. QC-CPUs werden auch mit DC-CPUs verglichen. Wär ja noch schöner, wenn hier ne 2-Klassen-Gesellschaft aufkommt. Nee nee, Preis/Leistung zählt, wenn Mickroruckler irgendwann passe sind und auch der Rest (Stromaufnahme/Lautstärke) stimmt, juckt es glaube ich keine Sau, wieviel GPU-Cores aufm PCB verlötet sind.
 
Kasmopaya schrieb:
@ Schinzie

Für dich auch: Nochmal alle Tests von SLI und CF lesen...
Microruckler sind noch da.
Microruckler können selber nicht gefixed werden, auch nicht von erfahrenen high end Usern...
Solange Microruckler existieren, kannst du die FPS von single und multi GPU Karten nicht vergleichen.
Sobald ATI oder NV die SLI/CF Kinderkrankheiten ausgemerzt, kannst du die Karten vergleichen.
Bis dahin: Zur Hölle mit SLI/CF solange SLI/CF nicht gefixed ist.

MfG Kasmo

nicht bei alten karten gefixt werden,dafür muss einen neue kommunikation her...zudem bin ich der meinung microruckler gut bewerten zu können,so lange du mehr als 30fps hast, fallen sie net auf.
wenn man drauf besteht, kann man bei multigpu immer 5fps abziehn,dann haste die gefühlten..wobei microruckler nicht überall auftreten.

zudem kann man sie auch jetzt schon fixen,nur ist das ein verlust der leistung, deshalb tuts keiner. es gibt glaub sogar heir auf cb ein tool zum runterladen.

und im übrigen ist das auch deine ansicht, für mich gilt, für weniger gelt bessere leistung (auch gefühlt), also zur hölle mit tueren Single GPU´s.


gruß
 
Zuletzt bearbeitet:
@ kasmopaya:

echt, die 9800GTX stürzt oft ab weil nvidia son scheiß speichermanagment hat? ok, wußt ich net, hab auch ati mit nem excellenten speichermanagement.

trotzdem sinds im endeffekt ca +20% bei der 260, da kannste nun hin und herrechnen wie du willst.

und das multigpu die zukunft ist, solltest spätestens heute auch du kapieren, oder meinste nvidia baut nochmal ne noch größere gpu?

nochmal, wenn ati mit der 4870x2 beiden gpus 1024 speicher gleichzeitig zur verfügung stellt und microruckler geschichte sind und das teil viel schneller als ne 280 ist... ja was willste dann mit dem ding noch?

kannste dir anne wand nageln... also rekordhalter.... die größe jemals gebaute gpu *ggg*
 
Zuletzt bearbeitet:
Zurück
Oben