G80 NewsFlash

p1n0 schrieb:
was mich wundert:
bei den für mich interessanten Titel wie FarCry & Oblivion kann die 8800GTX sich auch in hohen Auflösungen kaum absetzen...
einzig bei dem sehr graphikkartenlastigen F.E.A.R. bricht ATI`s X1900er stark in der Performance ein, teilweise kann der 8800GTX chip dort ein CF / SLI System ersetzen...
Es kann sich die beste Highendkarte nicht wirklich absetzen, wenn der CPU im Spiel der limitierende Faktor ist.

Liebe Grüße,
Dilandau
 
Ihr müsst es euch ja auch nicht erklären.
Abwarten & Tee trinken statt wild herumzuspekulieren und in der Gerüchteküche zu kochen.
 
SilentBTBK schrieb:
Aber ich hab ne LAN vor mir das Weekend und hab ne MSI 6600GT mit 128MB RAM :freak: :freaky: :lol: - kann ned mehr länger warten!

So, kleiner diss zurück für den Prescott-comment ;) : ich hab hier noch ne 6800GTO@ultra rumfliegen, soll ich die Dir rüberwerfen für Deine LAN :evillol: ?

@topic: die EVGA sieht wirklich Hammer aus :) . Bei den Inquirer-Benches bin ich ein wenig vorsichtig, k.a. wie die die genau durchführen. Außerdem wäre ein Core2Duo 6700 oder besser durchaus angebracht.
 
Hat CB die Tests mit der 8800er Reihe wohl schon fertig und wird die Ergebnisse entsprechend um 20 Uhr vorstellen?
 
Dilandau schrieb:
Es kann sich die beste Highendkarte nicht wirklich absetzen, wenn der CPU im Spiel der limitierende Faktor ist.

Liebe Grüße,
Dilandau

Das mag sein, ich für meinen Teil halte nun allerdings AMD die Treue, bis sie 2008 ihren K9 rausbringen, dann wird komplett neues System mit DDR3 RAM angeschafft :cool_alt:
 
@p1n0
das liegt vielleicht daran, dass die Spiele so ziemlich CPU-Limitiert sind. Da reist es auch eine andere karte nicht raus.
 
Dilandau schrieb:
Es kann sich die beste Highendkarte nicht wirklich absetzen, wenn der CPU im Spiel der limitierende Faktor ist.

Zumindest bei Oblivion ist momentan die Grafikkarte der limitierende Faktor.
 
Shor schrieb:
@ Wolfenstein: Wie findest Du die Links immer?
Weder bei Alternate noch bei Geizhals sind diese Links über die Suche zu finden.

Direkt bei Alternate in die nVidia / PCI-E Grafikkarten-Rubrik schauen, auf die GTS Modelle klicken und Link posten ;)

SilentBTBK schrieb:
Interessant ist, WIESO auch nur alle diese GTX's nicht lieferbar sind?!?! Waren die Techniker doch nicht schnell genung um diesen Produktionsfehler zu beheben?? :rolleyes:

Habe ich mich auch gefragt, allerdings nochmals 150€ draufzahlen für schätzungsweise 10-15% mehr Leistung gegenüber einer GTS? Ähm, die Techniker wurden doch nur losgeschickt, um die Testsamples der Redaktionen zu reparieren, oder wie war das? Was aber auch nicht soviel Sinn macht, denn in ein paar Stunden kann man keinen umfangreichen Testbericht erstellen.
 
Zuletzt bearbeitet:
tAk schrieb:
Nur indirekt. Die kommenden QuadCores brauchen nicht viel weniger Strom als z.B. ein 965EE. Zwar ist der Conroe wesentlich effizienter, was ich aber damit sagen will, dass mehr Cores die die CPU auch nicht kühler werden lassen. Für 8 Cores müsste man dann schon bei 45nm sein um die Wärmeentwicklung in den Griff zu bekommen usw.

mFg tAk

das sind auch keine echten quadcores sondern "2x2cores", bei den nativen quads wird das imho schon wieder etwas anderst aussehen. Und allgemein habe ich gegen gleich hohen verbrauch bei viel höherer leistung auch nix einzuwenden.

Aber es darf halt nicht jede generation nur noch mehr strom fressen - wenn das so weiter geht brauch ich für eine Geforce 10800 nen eigenes Netzteil :/
 
hm, 649 Euro, ätzch
Wann hat MSI gesagt dass die 8800 GTO für 239 Euros rauskommmt? :D
 
rangar schrieb:
Zumindest bei Oblivion ist momentan die Grafikkarte der limitierende Faktor.
Aufgrund der hardwarehungrigen Engine ist hier zur Zeit beides limitierend und mir nützt eine 8800GTX in Oblivion nichts, wenn der Proz die Geometriedaten nicht zur Verfügungstellen kann und aus diesem Grund kann sich die 8800GTX von ATI nicht so sehr absetzen wie man es evtl erwartet hätte. Ich wollte nur das Bench-Ergebnis erklähren. Zumindest sind für mich die Ergebnisse normal bzw erklährbar. Was anderes wollte ich damit auch nicht aussagen.

Liebe Grüße,
Dilandau
 
Juhu Alternate hat jetzt endlich auch online!

Mhh rechne mal nicht mit der GTO, das wär mehr nur so ne Notlösungweil die 7900GTX einfach zu hoch getaktet war und zu viele Ausfälle hatte.....
 
Naja, gesalzene Preise, alle GTX um 650 euro :-(((

Da warte ich lieber erstmal ab...
 
shadowshq schrieb:
Naja, gesalzene Preise, alle GTX um 650 euro :-(((

Da warte ich lieber erstmal ab...

Naja, wie (leider) üblich die empfohlenen Dollarpreise nehmen (499 US$ GTS / 649 US$ GTX) und das Dollarzeichen gegen € austauschen - kommt also in etwa hin. Nur frage ich mich wirklich, warum Alternate keine einzige GTX auf Lager hat...
B@dehose schrieb:
Juhu Alternate hat jetzt endlich auch online!

Mhh rechne mal nicht mit der GTO, das wär mehr nur so ne Notlösungweil die 7900GTX einfach zu hoch getaktet war und zu viele Ausfälle hatte.....

Spätmerker ;) https://www.computerbase.de/forum/threads/g80-newsflash.228706/page-31#post-2329175

Dilandau schrieb:
Aufgrund der hardwarehungrigen Engine ist hier zur Zeit beides limitierend und mir nützt eine 8800GTX in Oblivion nichts, wenn der Proz die Geometriedaten nicht zur Verfügungstellen kann und aus diesem Grund kann sich die 8800GTX von ATI nicht so sehr absetzen wie man es evtl erwartet hätte. Ich wollte nur das Bench-Ergebnis erklähren. Zumindest sind für mich die Ergebnisse normal bzw erklährbar. Was anderes wollte ich damit auch nicht aussagen.

Liebe Grüße,
Dilandau

Stimmt, Oblivion verhält sich oftmals auch eindeutig CPU limitierend, denn wie sonst ist es zu erklären, dass die Framerate an vielen Stellen im Spiel absolut gleich bleibt, egal welche Auflösung zwischen 640x480 und 1280x1024 eingestellt ist. Ist sogar selbst bei Gothic 2 noch der Fall, z.B. in der Hauptstadt Khorinis.
 
Zuletzt bearbeitet:
für mich ist der einzige logische Grund, dass es mit den GTX Karten eben doch noch Probleme mit dem Widerstand gibt.
 
mmic29 schrieb:
So, kleiner diss zurück für den Prescott-comment ;) : ich hab hier noch ne 6800GTO@ultra rumfliegen, soll ich die Dir rüberwerfen für Deine LAN :evillol: ?

@topic: die EVGA sieht wirklich Hammer aus :)

Boaaaaa das wär der Hammer wenn des machen könnst ^^


Und ja, die EVGA ist echt DAS BIEST überhaupt *schwärm*
 
Meister1984 schrieb:
für mich ist der einzige logische Grund, dass es mit den GTX Karten eben doch noch Probleme mit dem Widerstand gibt.


Hallo
Ich würde sagen,daß ein System von unten her aufgebaut wird.
Man kann keine Highendkarte mit nur einem Athlon 64 3500+ und einem Asrock-Board betreiben! (Ist nur ein Beispiel!)
Wenn dann alles Highend denn sonst bringt einem die tollste Graka nix.

Was meint Ihr warum die ersten Tests mit einem QX 6700 getaktet auf 4000 Mhz gemacht wurden!?...richtig da gab es viele Punkte im 3DMark 06 die aber für die meisten nur ein Traum bleiben weil diese Leute keine 1000€ für ne CPU ausgeben.
Man kann keine Wunder erwarten von der 8800GTX wenn der Rest des Systems zu schwach ist,denn dann ist sie nicht soo sehr weit von einer 7950GX2 weg

Ich finde der beste Test wäre ein Athlon FX 60 mit einer 8800GTX denn da kann eigentlich jeder was mit anfangen und 649€ sind bei weitem genug Kohle um sich nicht auch noch den rest kaufen zu müssen damit man das auskosten kann wo zu sie eigentlich gebaut wurde.
 
Zuletzt bearbeitet:
Jo die 88er gtx knackt halt wirklich fast en x1950 crossfire:freak:

Ajo ich hohl mir dann wohl auch eine, nett´s Kardal, muas i scho saga!
Und endlich NV, jetzt muss ich nimmer mit dem hässlichen overclocker rumfuchteln!

Aber leute.... wartet halt noch en bisschen 650 is schon sehr happig:rolleyes:
Und mit 540 kann man auch nur auf dicke Hose machen bis die GTX verfügbar is also kommt mal runter...;)

Mfg
 
Phossi schrieb:
..
Ich finde der beste Test wäre ein Athlon FX 60 mit einer 8800GTX denn da kann eigentlich jeder was mit anfangen ;)

hmm,
Athlon FX wurde ja schon getestet (siehe http://uk.theinquirer.net/?article=35604)
mich würde mal nen aussagekräftger bench eines AMD Dualcore Systems freuen, so X2 4200+ mit nem dc-optimierten Spiel, was der G80 da bringt im Gegensatz zu Intels C2D bzw. CF / SLI Systemen :hammer_alt:
wenns nur schon ne beta von Crysis gäbe *jammer
 
Zuletzt bearbeitet:
Zurück
Oben