News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Hardware_Hoshi; der Test stammt von tweaktown.com und wenn du andere Tests durchsuchst die man den Kommentaren auf der Seite entnehmen kann wo keine OC Variante der Nvidia hergenommen wurde sieht das ganze anders aus. :) Wenn man glauben schenken soll ist natürlich eine ganz andere Geschichte.
Doch eine sehr stark übertaktete GTX295 erweckt nicht mein vertrauen zum Test
 
Motkachler schrieb:
Wenn die 2 5870 nicht ind CPU limit rennen knalln die ne GTX 295 sowas von weg.
Ist doch kompletter schmarn was Hardware_Hoshi da von sich gibt.
Es giebt zur zeit einfach nicht die CPU die 2 5870 voll befeuern könnte.

Erzähl keine Märchen! Ich habe hier zwei 5550er Xeons mit 16x 2,66GHz (2x Quad-Core + 2x4 SMT) in meinem neuen Rechner. Die 5870er sind für mich enttäuschend. Für meine Verhältnisse zählt nur pure Leistung, brachial und unantastbar. Die 5850/5870 sind dies schon einmal nicht, denn sie setzen keine neuen Maßstäbe. Wer die höheren Karten der letzten Generation bereits hat, braucht nicht umzusteigen.

Die X2 version ist in meinen Augen ihre letzte Chance mein Kriterium zu erfüllen, wobei ich in meinem Vergleich schon einige Gedanken vermerkt habe.

y33H@ schrieb:
Für GTA4 brauchste für 60 Fps aber kein Fermi, sondern einen 5,0-GHz-Gulftown :D

Du brauchst dafür keinen neuen Prozessor, sondern gescheite Programmierer :p

manoman3 schrieb:
@Hardware_Hoshi

ich find es lustig wie man bei einem Nvidia-only-Vergleich:

GF8800 GTS320 == 7950GX²
GTX285 == 9800GX²
GT300 == GTX295 ---> +x%????

dann andeutet, dass die 5870 so schnell sein müsste wie die GTX295.

Aber dass die 5870 so schnell wie die 4870X2 ist, läßt man mal außer Acht, wa ;)

Die 4870x2 ist langsamer als die GTX295, aber darauf wollte ich nicht hinaus. In der Liste wollte ich nur andeuten, dass die Singel-GPUs von Nvidia immer so schnell waren die die Doppel-GPUs der Vorgängergeneration und das auf "Fermi" übertragen - mehr nicht! Hätte ich ATI da noch mit reingezogen, wäre es unübersichtlich geworden.

owerlort schrieb:
Hardware_Hoshi; der Test stammt von tweaktown.com und wenn du andere Tests durchsuchst die man den Kommentaren auf der Seite entnehmen kann wo keine OC Variante der Nvidia hergenommen wurde sieht das ganze anders aus. :) Wenn man glauben schenken soll ist natürlich eine ganz andere Geschichte.
Doch eine sehr stark übertaktete GTX295 erweckt nicht mein vertrauen zum Test

Ohne die übertaktete Version wäre es unfair gewesen. Zwei Single-GPU-Karten (hier 5870) sind in der Regel schneller als eine Doppel-GPU. Da die neue 5870X2 von ATi wohl langsamer wird (geringerer Takt wegen Hitze etc.), gleicht sich das dann wieder aus, weil die GTX295 übertaktet ist. Es findet also eine indirekte Anpassung statt. Das was die Nvidia an Mehrleistung bringt, ist vergleichbar mit der Leistung, die voraussichtlich die ATI verliert.
 
Zuletzt bearbeitet:
Gückwunsch! Über 1000 Kommentare.
 
Du brauchst dafür keinen neuen Prozessor, sondern gescheite Programmierer
Ich setze dagegen. GTA4 ist eine Wucht in Sachen lebendige Spielwelt und Sichtweite - das saugt nun mal an der CPU.
 
die hd5870 ist nicht schneller als die 4870x2, zumindest nicht unter Qualität

Eins wollen wir aber nicht untergraben,Ati präsentiert da eine wirklich tolle Bildqualität,der AF rendert für mein Auge wirklich Winkelunabhängig.Das war bei 4870 ja noch eine Katastrophe und das ganze nun ohne Leistungseinbusse "daumenhoch" Man merkt schon einen deutlichen unterschied zu GT200
 
l33 schrieb:
das bild stammt von der Presents Leute lest euch hwlux forum durch

3dfx hat damals genau das gleiche gemacht... PCB ohne leiterbahnen unfassbar sowas

Stell dir vor auf Automessen gibt es Prototypen die nicht fahren können ... :rolleyes:

Echt unfassbar solche Comments.
 
Gamer.Gamer schrieb:
Bin echt gespannt. Vllt. wirds statt ner 5870 doch ne Nvidia....

naja, dass ist doch immer das selbe, der mit der besten Leistung bestimmt den Preis (und das ist wie immer Nvidia, nix gegen ATI Fanboys :D) aber mal sehen bin mal auf den Preiskampf zwischen 5850 und "GTS 300" gespannt, weil für ca. 200€ ist ein Update auf die nächste Generation gerade noch in Ordnung
 
die hd5870 ist nicht schneller als die 4870x2, zumindest nicht unter Qualität
Äh - mit CFAA ist die HD5870 meist schneller als die X2.
Ati präsentiert da eine wirklich tolle Bildqualität,der AF rendert für mein Auge wirklich Winkelunabhängig
Applaus, du bist drauf auf den PR-Bullshit reingefallen :freak: Das winkelunabhängige AF siehst du selbst auf Shots nur mit der Lupe .... im Spiel und in Bewegung in der Praxis zu 99,7% nicht. Das nach wie vor vorhandene Flimmern dagegen schon - das zu entfernen kostet im Gegensatz zur Winkelunabhängigkeit nämlich Fps.
 
y33H@ schrieb:
Ich setze dagegen. GTA4 ist eine Wucht in Sachen lebendige Spielwelt und Sichtweite - das saugt nun mal an der CPU.

Naja, ich glaube eher das kommt durch die Konsolen Portierung. Da man hier ja vergleichsweise Uralt Grafikkarten verwendet, muss die Last mehr Richtung CPU wandern. Und mit der Sichtweite hat das wenig zu tun. Schau ich mir Ghostbusters an, sehe ich das mit 2 Kernen hier nichts am Laufen ist, mit 4 Kernen jedoch sehr wohl. dabei juckt es das Spiel kaum ob 8800GT, 4850 oder 4870 1GB verbaut ist. Und von hoher Sichtweite kann man da kaum sprechen.
 
@ Eon-Deon

deine Ghostbusters these lese ich jetzt schon zum 5 oder 6 mal.
hab diese auch mal vor ca. einem monat widerlegt bzw. mein feedback gepostet.
weiss ja net welche version du zockst, bzw. ich kenne nur eine ohne patch
u. ich sag´s dir nochmal ....die hardwareanforderungen von Ghostbusters
sind ein witz .....eine höhere cpu-power als gta4 soll das spiel benötigen ?!?

- kann nur sagen, hab das game seit ca. juli u. es rennt u. schnurrt auf nem dual.
alles aufgedreht @ 1680*1050 u. kam nie unter 45 frames ....muss allerdings
dazu sagen hab " nur " die ersten 6-7 mission´s gezockt....:rolleyes:


edit: @ Affenkopp
nein ...absolut nicht - das ist es ja was mir nicht in kopf geht ^^
trotzdem n1 thread von Eon-Deon u. mit viel " arbeit " verbunden.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Wo willst du denn die Leistung finden?
Sieh dir mal Crysis und Stalker Clear Sky im CF an.
Ist doch völlig unintressant ob ich zuerst 1245fps hab und dann 15454 fps.

Die wahre Leistung der 5870 wird sich erst unter DX11 zeigen.
Colin McRae Dirt 2 kommt mit DX 11 anfang Dezember
Risen auch DX11 wurde schon getestet da kann mans schon erahnen wie die Leistung etwa sein wird.
http://www.pcgameshardware.de/aid,6...it-Radeon-HD-5850/Rollenspiel-Adventure/Test/

Was der G300 mit DX11 bringt steht noch in den Glaskugeln.
Laut NV ist ja DX11 nicht so wichtig klingelts ? :)
 
Zuletzt bearbeitet:
Motkachler du bist echt witzig zu lesen;)
Echter ATI Fanboy
 
Motkachler schrieb:
Die wahre Leistung der 5870 wird sich erst unter DX11 zeigen.
Colin McRae Dirt 2 kommt mit DX 11 anfang Dezember / Risen auch DX11 wurde schon getestet da kann mans schon erahnen wie die Leistung etwa sein wird.
http://www.pcgameshardware.de/aid,6...it-Radeon-HD-5850/Rollenspiel-Adventure/Test/

Nun ich bin mir über DX11 noch nicht so sicher. Selbiges hatte man schon mit DX10 im Vergleich zu DX9 versprochen und wo sind wir zurzeit? Viele DX9-Games bzw. umsetzungen die DX9-basierte Software haben. Das liegt nicht an der Schnittstelle selbst, sondern weil die Spieler nicht auf das lächerliche Windows Vista umsteigen wollten und lieber auf XP-Stand sitzen geblieben sind.

Ob und in wie fern sich das mit Windows 7 ändert, das ja auf jeden Fall DX11 beinhaltet, wird man sehen müssen.


Motkachler schrieb:
Was der G300 mit DX11 bringt steht noch in den Glaskugeln.
Laut NV ist ja DX11 nicht so wichtig klingelts ? :)

Ja, es klingelt - meine Pizza ist da .. :lol:

Zurück zum Thema:
DX11 wird wohl überbewertet und zurzeit unnütz, weil es noch keine Games gibt. Von daher könnte man Nvidia recht geben. Wie lange hat es denn gedauert bis endlich DX10-basierende Spiele erschienen sind? Auch bei deren Erscheinen traten die Vorkommnisse weiter oben ein.

Solche Versprechungen von Wegen Grafikkarte "X" läuft mit Zustand "Y" um "Z" besser, sehe ich äußerst skeptisch. Das hatten wir schon bei zu vielen Generationen beider Grafikkartenhersteller. Beispiele? Gerne:

Beispiele für nicht eingehaltene Versprechungen beider Grafikkartenhersteller:
Stromverbrauch
- stehts in etwa gleich geblieben --> 8800 GTX bzw. Ultra /// 4800er Serie (ohne PP2.0?)
- Wunderpatch
- nie erschienen, weil unmöglich. Wenn es sowas gäbe, würde es nur beweisen wie mies die Software für die Grafikkarten bisher programmiert wurde
DX10-Boom
- DirectX-10 hatte potential, wurde aber durch die Strategie von Microsoft es nur auf Vista herauszubringen abgewürgt. Die Programmierer haben sich für den leichten Weg entschieden, nämlich DX-9 weiter zu benutzen. So erreichten sie viel mehr mögliche Kunden.

DX-11 für Nvidia nicht wichtig, weil:
Sie zurzeit ihre eigenen Standards durchsetzen wollen. Sich nur auf fremde Schnittstellen zu verlassen macht abhängig. DirectX ist Microsoft only! Es funktioniert weder auf Linux noch auf MAC OS - zumindest nicht ohne abartiges Gefummel = zu viel für den normalen Anwender.

Ich denke Nvidia verfolgt eine andere Strategie. Es wird wohl auf kurz oder lang daraus hinauf laufen, dass man in die Fußstapfen der gekauften Tochter 3dFX treten will und den Markt mit eigenen Ideen inspirieren will.

Wie ich darauf komme? PhysX / CUDA, jetzt werden ECC und Cache angekündigt - das sind Ideen und Implementierungen, an die bisher niemand dachte und sogar eine Evolution im Grafikkartenmarkt bedeuten könnten. Die CAD-Abteilung unserer Firma hat bei dieser Meldung schon die Anträge für Q1/2010 gestellt um einige dieser neuen Quadros (Tesla wie auch immer) zu bestellen.

DX11 wird evtl. komplett von Nvidia emuliert, genau wie DX11 die alten Standards DX9 / DX10 / DX10.1 angeblich emulieren soll. Wenn die Software bzw. die Hardware entsprechend leistungsfähig ist, verlieren wir als Gamer am Ende nichts, sondern freuen uns über höhere Frames und / oder bessere Qualität. Wo die herkommt, wird dann keiner sagen können.

Orientierung für Kunden und Testmagazine:
Die Tests in den Hardware-Magazinen wie auch ComputerBase eine ist, wird sich drastisch ändern müssen, denn wie Nvidia gesagt hat, besteht kaum mehrbedarf an Frames. Wir sind schließlich schon auf einem Level, der es nahezu unsinnig macht noch hoch zu steigen. Was will man mit 300+ Frames?

Ausnahme sind hier die Grafikkracher, die auf keiner Hardware gut laufen - außer auf niedrigen Auflösungen. Falls alle anderen Games 100-300 Frames haben, welchen Fokus sollen dann die Grafikkartenhersteller setzen? Es sind Features wie Physik / Qualität / Stromsparen etc. - such dir halt was aus.

DX11 alleine ist nicht allmächtig. Es muss immer noch von hoffentlich fähigen Programmierern in Code umgesetzt werden. Glaub mir, es gibt genügend Murkser, die sich in der Softwareindustrie versuchen (siehe GTA IV). Angenommen sie wären fähig, nicht jeder ist Freund von Microsoft-Schnittstellen - aus diversen Gründen.
 
enemy14123 schrieb:
Motkachler du bist echt witzig zu lesen;)
Echter ATI Fanboy

Was soll an seinem DX11 Beispiel schlecht sein?
NVs Aussage DX11 sei nicht so wichtig ist ein schlechtes Omen, die PCGH DX11 Benchmarks sprechen nicht gerade für die GTX Karten. Bin jedenfalls gespannt was die Zukunft bringt. Auf jeden Fall kaufe ich nach P/L Verhältnis. Momentan würde ich gerne eine HD5850 haben, allerdins zu einem Preis von ca. 170.- EUR
Ergänzung ()

@Hardware_Hoshi
Was Nvidia nicht mehr oder weniger versucht, mit ihren eingenen Standards wie du sagst, ist ein Monopol zu errichten und die Konkurenz zu verdrängen. Man kann das ja anhand von diversen Spielen, die speziell für NV optmimiert wurden, sehen.
Hoffen wir mal alle, das NV damit scheitern wird. Sofern die wieder ein Monopol errichten, werden "90% High-End Karten" ala 260 GTX wieder rund 350-450 EUR kosten, wer will das schon, außer psychisch gestörte Fanboys und geldgeile Aktieninhaber die auf hohe Dividenden aus sind.
 
Zuletzt bearbeitet:
mediamaxx schrieb:
Was soll an seinem DX11 Beispiel schlecht sein?
NVs Aussage DX11 sei nicht so wichtig ist ein schlechtes Omen, die PCGH DX11 Benchmarks sprechen nicht gerade für die GTX Karten. Bin jedenfalls gespannt was die Zukunft bringt. Auf jeden Fall kaufe ich nach P/L Verhältnis. Momentan würde ich gerne eine HD5850 haben, allerdins zu einem Preis von ca. 170.- EUR

Wenn die Qualität steigt, hätte ich auch nichts dagegen. Vergleiche mal ältere Grafikkartengenerationen mit den heutigen. Durch den Preiskampf wird nämlich genau hieran gespart. Das Ergebnis sind fiepende Spulen, weil man billige Teile verbauen "muss". Auch wenn wir im Moment noch keine Nachteile sehen, der Teufel steckt bekanntlich im Detail. Sobald es soweit ist, heulen wieder alle - hauptsache jedoch "Geiz ist geil" jedoch nicht mit den Folgen leben müssen.

Eine Grafikkarte für 170€? Das ist fast wie ein Auto, das neu nur 5000€ kostet. Ja, es fährt, aber hat keinerlei Sicherheit oder Schutzmechanismen. Ich hoffe du bekommst das nicht in den falschen Hals.

mediamaxx schrieb:
@Hardware_Hoshi
Was Nvidia nicht mehr oder weniger versucht, mit ihren eingenen Standards wie du sagst, ist ein Monopol zu errichten und die Konkurenz zu verdrängen. Man kann das ja anhand von diversen Spielen, die speziell für NV optmimiert wurden, sehen.
Hoffen wir mal alle, das NV damit scheitern wird. Sofern die wieder ein Monopol errichten, werden "90% High-End Karten" ala 260 GTX wieder rund 350-450 EUR kosten, wer will das schon, außer psychisch gestörte Fanboys und geldgeile Aktieninhaber die auf hohe Dividenden aus sind.

Ein Monopol seitens Nvidia wird es nicht geben, da Intel bereits in den Startlöchern steht, groß in den Grafikkartenmarkt einzusteigen. Erzähl bitte nichts über Marktmechanismen, wenn du es nicht im Kontext siehst. AMD/ATI gelingt es nur solche Kampfpreise anzubieten, weil sie A) keine Führenden Produkte haben (ewiger Zweiter - geschichtlich bewiesen) und B) ihr gesamtes Unternehmen jedes Quartal stehts im Schuldenbereich haben und nur durch das Wohlwollen ihrer Investoren über Wasser gehalten werden. Sobald diese Abspringen, braucht es kein unterstellt böswililges Unternehmen wie Nvidia. Das bekommt AMD/ATI noch selbst hin.
 
@Hardware_Hoshi
Au weia AMD bekommt das schon selbst hin da hilft Nvidia und Intel schon nach wos geht.:D
Aber vielleicht kommt ja bald ein grösserer Geldsegen von Intel.http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1254496732
Und ewiger zweiter waren und sind sie nicht im Momment ist die 5870 ja auch die schnellste single Karte.
Und der Athlon 64 war lange leader.
 
Zuletzt bearbeitet:
Na, da muss ich doch mal kurz einhaken - ATi ewiger Zweiter ist völliger Schmarrn. Das sind sie nur seit GeForce 8800 und das auch seit HD4k nur sehr bedingt. ;)

Viele scheinen hier völlig zu vergessen, wie das Kräfteverhältnis bei Radeon 9700 vs. GeForce 4 / GeForce FX war bzw das Kräfteverhältnis bei Radeon X1950 XTX vs. GeForce 7950 irgendwas.

Es ist herrlich zu sehen, wie viele hier nVidia die "Herrschaft" bei Grafikkarten andichten wollen und der festen Meinung sind, daß sie auf Ewig dominieren werden. Das werden sie ebenso wenig packen, wie ATi es dereinst gepackt hat.

Und @Hoshi, was Du da schreibst wegen DX 11 und nVidia-eigenen Standards... alter Schwede, komm mal wieder klar! Eigene Standards durchsetzen und Intel als Konkurrent... wo lebst Du?! Stellst Du Dir vor, daß Intel und nV da ganz eigene Standards ausmachen, die jeweils nur auf ihren Karten laufen und AMD/ATi aussenvor bleibt... und Microsoft als Anbieter der meistverbreiteten Plattform sowieso?! :D

Sicher. :D Wo sowas endet, hat man bei OpenGL bzw 3dfx Glide gesehen.
 
Hardware_Hoshi schrieb:
Eine Grafikkarte für 170€? Das ist fast wie ein Auto, das neu nur 5000€ kostet. Ja, es fährt, aber hat keinerlei Sicherheit oder Schutzmechanismen.
Bitte ich bin Techniker, erzähl mir sowas nicht. Bedenkt man wo diese Karten produziert werden usw. sind 170.- Euro ne Menge Geld. Eine etwas bessere Spannungsversorgung (inkl. Spulen etc.) macht unterm Strich 8.- bis 15.- EUR mehr Materialaufwand. Das erklärt also nicht die ehemaligen Preise von 450-600 EUR für middle-High-End Karten. Nein, sie haben sich einfach von den Kunden genommen, was zu kriegen war und davon reichlich. Schön dass diese Zeiten nun rum sind.

Nein, AMD/ATI war nicht immer ewiger Zweiter. AMD wahr jahrelang führend mit ihren Athlon (gegen Pentium3 und die ersten Pentium 4) und Athlon64 (gegen Pentium 4/5 (775) Prozessoren, die Radeon 9700er und X1800er/1900er Karten der NV Generation teiweise deutlich überlegen. Die neuen HD5000er sind momentan allen Nvidia Karten überlegen, also ist auch hier ATI wieder führend.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben