News Weitere Hinweise zur Leistung der HD 4870 X2

Komisch das er die noch nicht in seiner Signatur hat. :D

@BullRun:
Es zweifelt wohl kaum jemand an der Leistung der GTX 280, nur werden die wenigsten 600 Euro oder sogar 820 dafür zahlen, was meiner Meinung nach schwachsinnig ist. Der Rest wird sich nächste Wochen zeigen.

MfG Pantherfibel
 
Ich denk auch die NVIDIA-Jünger können sich mal ganz dicke bei DAMMIT bedanken, sonst müssten sie sich in zwei Jahren immer noch ne 8800GTX kaufen. Vielleicht dann in 65nm. Na wenigstens gibt man so der Konkurrenz Zeit zum aufholen.
 
@Bullrun: Kannst du bitte die Karte mit 3DMark06 testen? Ich hab immer Probleme, die Punkte vom Vantage umzurechnen^^...auch wenn ich kein so großer Fan von Syntetischen Benchmarks bin:)
Gruß AEROON
 
LOL nach ueber 20 Jahren im Geschaft jubelt mir niemand irgendeine Faelschung unter.Ihr wart vermutlich noch nicht geboren da hab ich schon Slot1-Celerons als Pentium Faelschungen identifiziert.
Als Amateur wie du besteht von aussen die Gefahr eine Falschung zu kaufen, aber auch der Amateur sieht dann die BIOS meldung und andere Sachen die die Echtheit bestatigen . Allerspaetestens als Vantage lief haette ich mich gefragt warum meine alte 8800GTX nur halb so schnell ist wie die neue 8800GTX die ja eigentich als GTX280 verkauft wurde . Also macht nicht soviel Sinn dein Verdacht oder....

OK kein Bock mehr.... das du mit ausnahmslos allem daneben lagst wirst du nachsten Dienstag sehr sehr deutlich zu sehen bekommen. Ich mach einen Thread auf nach dem ATI Launch auf und dann koennen wir nochmal drueber reden wieso warum weshalb diesmal wieder alles schiefging .....
 
Zuletzt bearbeitet:
ach was, ATI hat groß zuglegt was Treiberangelegenheiten betrifft
 
Pantherfibel schrieb:
...
Es zweifelt wohl kaum jemand an der Leistung der GTX 280, nur werden die wenigsten 600 Euro oder sogar 820 dafür zahlen, was meiner Meinung nach schwachsinnig ist. ...
selbst bei nur 600€ stell ich mir das schon lustig vor
schüler: cool!!! nun an die ersparnisse ran, die über die geburtstage zusammen kamen und nicht von mama und papa erwischen lassen, sonst ist kirmes auf dem hintern
student: geil!!! mit dem hiwi job hab ich das ratz fatz drin, ich muss nur einen weg finden, nebst auf kino, disco, billiard, kneipe, auch auf das essen zu verzichten.
arbeitnehmer (unverheiratet): nice!!! den nächsten urlaub etwas kürzen, oder auf balkonien verbringen
arbeitnehmer (verheiratet, ohne kinder): yessss!!!! aber nicht von der alten erwischen lassen, sonst gibt es krach
arbeitnehmer (verheiratet, mit kindern): juhuuuu!!!! fix den neuen kredit klarmachen und nicht von der alten erwischen lassen, sonst wird das die nächsten jahre über teuer, wenn ich für die kinder löhnen muss

auf jedenfall freut sich die bank mit, weil man entweder dem dispo mal wieder hallo sagt, oder aber an irgendwas ranmuss, bei dem das geld langfristig angelegt ist, was aber dumm wäre.

natürlich gibt es auch noch menschen, die geld über haben, weil sie wirklich gutes geld verdienen. aber mal ehrlich, jemand der gutes geld verdient und über hat, der gibt es nicht für sowas aus, denn wenn er sowas machen würde, hätte er wohl kaum geld über

:-)
 
@Pantherfibel

auch du kleiner Hosenmatz sprich doch nicht von schwachsinnig, enthusiastisch heisst das. Andere Leute haben andere Interessen und geben Geld fuer Dinge aus die ich nicht mal kenne.Ich habe immer weniger Zeit zum Zocken und aergere mich nicht in dieser knappen Zeit mit irgendwelchen Gurken rum .Ich kaufe immer das Schnellste und uebertakte zusaetzlich noch ziemlich stark um ein Maximum fuer das viele Geld rauszuholen .Mit sowas spiele ich oder lasse es sein. Jeder hat so seine Macken ,du auch Kleiner ...

Alles madig zu machen kann ich dir nichtmal uebelnehmen , der Tag der Wahrheit rueckt immer naeher , die Mittel werden immer verzweifelter.Bin nicht boese keine Angst ...
 
@quotenkiller: du wirst lachen, es gibt leute, die geben tausende für schicke alufelgen und schweller am auto aus, wodurch das aber kein km/h schneller fährt ;)
die gtx280 ist luxus, richtig. genau wie vor ihr die 8800ultra auch... der preis ist vollkommen normal. (siehe x800, 6800ultra, x1800, 7800gtx (512), 1900xtx, 7900gtx, 7950gx2, 8800gtx...)
 
Zuletzt bearbeitet:
sag mal bullrun, siehste irgendwas von einem Stromsparenden 2d Modus?
Das würd mich schon interessieren.
 
BullRun schrieb:
#66

da es sowieso niemand glaubt kann ichs auch sagen .... ich habe schon eine GTX280...

LoL:D Sowas ist Talkshowreif;)

BullRun schrieb:
#66
Gestern so bulkig wie eine Karte nur sein kann frisch aus Taiwan eingetroffen .Unter der Hand gehen die seit einiger Zeit vermutlich schon weg , habe allerdings mit Zoll,Steuern und allem Drum und dran 820 Euro bezahlt . Dafuer gabs keinerlei Zubehor , nicht einen Tag Garantie und einen garstigen Pre Alpha Treiber mit dem ich keine Videos abspielen kann ...:)

:D Der Treiber einer Graka spielt halt Videos ab:D Die CPU machts wenn die Graka nicht läuft, die GPU übernimmt dann einfach gar nichts, aber die Videos laufen:D 820 Euro nicht schlecht, für ne Karte ohne Garantie:D

BullRun schrieb:
#66
Aeusserlich zu 100% identisch mit einer 8800GTX G80(fruehe Version) gehts 3D maessig komplett ab .In Vantage ist sie mehr als doppelt so schnell und laeuft ca 10 Grad kuehler und somit auch ruhiger.Hab eh keine Garantie, deswegen noch heute Kuehler runter ,Speicher checken und wenigstens auf 8800gtx Taktniveau bringen.

Ah Speicher checken, meistens sieht man von Auge ob der okay ist;):D


BullRun schrieb:
#66
TDP 250W kann jedenfalls nicht sein, ich weiss zwar nicht wie die gemessen wird aber die TDP kann in keinem Fall groesser als die absolute Hoechstlast sein . Der ganze Rechner mit TFT und mehreren Platten braucht keine 300W, auch nicht unter Last beim Spielen.

Nach mehr als 20 Jahren im Geschäft weisst du nicht wie sowas gemessen wird? Hmmm hmmmm hmmmmmmmm......

GEILSTER SATZ: "Der ganze Rechner mit TFT und mehreren Platten braucht keine 300W, auch nicht unter Last beim Spielen."

Dein TFT hat ne Stromaufnahme von 1A (kannst auf der Rückseite nachschauen) P=U*I, demnach folgt eine Leistung von 230W. hmm... der ganze Rechner braucht also dann nur noch 70W... hmm hast ne Intel 80C31 CPU:D?

BullRun schrieb:
#66
Hab schon weit mehr gesagt als ich sollte und wollte , werden dafuer gleich als Luegner und Spinner bezeichnet und hab selbst nichts davon gehabt ... An CB : Sofort am Launchtag kann ich Detailfotos bei Bedarf schicken , aber ich glaube ihr habt laengst selbst eine ..:)
Hast wirklich nichts davon du Profi;) ein richtiger Hardwarefreak würde eher seine Bude niederbrennen lassen bevor er prallt das er noch nicht erschienene Hardware besitzt;)

BullRun schrieb:
LOL nach ueber 20 Jahren im Geschaft jubelt mir niemand irgendeine Faelschung unter.

Über 20 Jahre im Geschäft... hmm TDP? 300W System + TFT? 820Euro für ne imaginäre Graka? wirst wohl weitere 20 brauchen um vernünftig zu werden:rolleyes:

BullRun schrieb:
#66
Ihr wart vermutlich noch nicht geboren da hab ich schon Slot1-Celerons als Pentium Faelschungen identifiziert.

Nein waren wir nicht! Willst du jetzt nen Ballon?

BullRun schrieb:
#66
OK kein Bock mehr.... das du mit ausnahmslos allem daneben lagst wirst du nachsten Dienstag sehr sehr deutlich zu sehen bekommen. Ich mach einen Thread auf nach dem ATI Launch auf und dann koennen wir nochmal drueber reden wieso warum weshalb diesmal wieder alles schiefging .....

Nächsten DI will ich deine Pics sehen^^ am besten kannst du mir sie schon am MO auf die Post bringen:D dann sehe ich ja ob sie von dir Stammen:D

@Topic:)

Find ich klasse! Jemand muss ja anfangen und von CF und SLI wegkommen! Diese 2 Methoden können nicht die Technik der nächsten Jahre sein:) Probleme giebts da erst wieder wenn man 2x ne HD4870x2 in den PCI-E Slot haut. Dann ist es ja wieder CF:)

Aber Hoffentlich wird die GTX-280 ein guter Konkurent, dann gehts schnell runter mit den Preisen:) und das auf beiden Seiten:)
 
Zuletzt bearbeitet:
Bloß mit dem kleinen Unterschied, dass es bei der 7900gtx nicht lange danach die 7900gto für "grade mal" 230€ gab.
Wer weiß, ob das jetzt wieder so sein wird. Wüßte man jetzt schon, dass die kommenden Karte wieder so eine extrem lange Haltbarkeit aufweisen wie seiner Zeit die 8800gtx. Die ist nach 2 Jahren noch immer top und wird es auch noch 2008 sein und 2009 reichen.

Ich für meinen Teil bin froh, wenn wir nächste Woche Fakten auf dem Tisch haben und wenn diese erfreulich ausfallen.
Grad in Sachen Verbrauch - Leistung erwarte ich sinnvolle Schritte.

@BullRun
Kann doch gut sein, dass er eine solche Karte hat. Nicht jeder muss mit 50€ Taschengeld auskommen.
 
Noch eine Neuigkeit: Es gibt schon lauffähige Shanghai Samples die die 4 Ghz Marke knacken (Rund 2 - 5 %).

Aber zur Karte:

Die Karte wird in jedem Bereich der 280GTX überlegen sein, auch bei der Leistungsaufnahme. (Als Beispiel kann man HD3870 > 8800GTX > HD3870X2 anführen.
 
na komm schon Bullrun zeig uns ein screen von 3DMARK 06
 
Pelzwurst schrieb:
Ich bin immer noch der Meinung, dass hier Äpfel mit Tomaten verglichen werden...
Bei 2 verschiedenen Grafikchips einer Generation (ATi und nVidia), sollte es eigentlich logisch sein (bzw., sollte es nicht so sein, beschämend), dass eine Dualchip-Karte schneller ist...
Falk01 schrieb:
Ähm das eine 2x GPU VGA eine 1x GPU VGA schlagen kann ist was tolles ? Ich sehe das als ein muß, alles drunter wäre nur peinlich.
Zweimal nope. RV770 ist, wie der Name schon sagt, als Value Chip entwickelt. G200, oder sollte man besser sagen 2xG100, ist hingegen als High-End Chip konzipiert. Logisch ist daher lediglich, dass 1xG200 schneller ist als 1xRV770. Alles andere ist erstmal unbestimmt. Was übrig bleibt, ist die X2 mit dem G200 zu vergleichen. Ob das letztendlich 2 GPUs sind oder nicht, spielt dabei keine Rolle. Das anvisierte Marktsegment ist jedenfalls das gleiche. Bei Servern spielt es zB auch keine Rolle, ob ich einen Power6 mit 2 Kernen mit einem Sun UltraSPARC T2 mit 8 Kernen vergleiche. Und angesichts der GP Leistung von ATI kann man schon jetzt sagen, dass selbst der deutlich schlankere und preiswertere RV770 sogar Leistungsvorteile hat.

Aber es zeigt wo die Reise hingeht: Die Die werden größer.
Nur weil Wafer grösser werden, heisst das im Umkehrschluss nicht, dass deshalb Dies grösser werden (dürfen) und Monsterchips wie G200 eine Rechtfertigung haben. Die Vergrösserung von Wafern und die einhergehende Umrüstung von Fertigungsanlagen ist enorm kostenintensiv. Und das Ziel dabei ist letztendlich eines, die Produktionskosten zu senken.

Lübke schrieb:
die 4850 ist gleichzusetzen mit der guten alten 8800gtx, da kann nv mit dem g92 also noch mithalten
Leistungstechnisch mag durchaus die Vergleichbarkeit gegeben sein. Trotzdem hat nVidia mit dem G92 das Problem, dass der Rest, also Stromverbrauch, DX10.1, HD Wiedergabe, etc.pp nicht für die eigenen Produkte spricht. Selbst der G92b wird diesen Rückstand nicht komplett beseitigen können. Im Endeffekt muss man also über den Preis regeln. Da aber sowohl G92 als auch G92b einen grösseren Die als RV770 haben, werden erstens die Yields schlechter und zweitens der Spielraum beim Preis geringer sein. Aus wirtschaftlicher Sicht würde mir das enorme Kopfzerbrechen bereiten. Zumal ATI ja auch bereits in der zweiten Generation ihrer 55nm Fertigung ist und damit aus dem Prozess wohl mehr rausholen kann als nVidia beim G92b. Und das sollte eigentlich die Hauptaufgabe von nVidia sein. Auch wenn viel Wirbel um den G200 gemacht wird, für den Markt ist der Chip unbedeutend.
 
Zuletzt bearbeitet:
Bullrun behauptet, dass die GTX 280 doppelt soviel Vantage-Punkte bekommt wie die 8800 GTX Ultra.
PCGH sagt aber hier:

Im 3DMark 06 setzt sich AMDs Radeon HD 3870 X2 nahezu durchgehend an die Spitze, erst mit 2.560x1.600 Bildpunkten samt 4xAA/16xAF kann die Geforce GTX 280 sich minimal absetzen.
http://www.pcgameshardware.de/aid,646656/News/pcinlife_GTX_200_Benchmarks_von_3DMark_06_und_Vantage/

Hier wurde ein referenzgetakteter QX9650 genommen.Wenn ich jetzt mal intels Flagschiff bei 4 GHz nehme, wo die X2 20.000 3DMark06 bekomt, muss die GTX 280 bei Standardauflösung zwangsläufig weniger als 20.000 bekommen haben...
 
Natühlich kann das mit ram funktionieren, mann kann doch gleichzeitig von 2 chips den ram lesen mann muss nur aufpassen das man nicht gleichzeitig auf den gleichen ram schrebit
 
AEROON schrieb:
Bullrun behauptet, dass die GTX 280 doppelt soviel Vantage-Punkte bekommt wie die 8800 GTX Ultra.
PCGH sagt aber hier:

Im 3DMark 06 setzt sich AMDs Radeon HD 3870 X2 nahezu durchgehend an die Spitze, erst mit 2.560x1.600 Bildpunkten samt 4xAA/16xAF kann die Geforce GTX 280 sich minimal absetzen.
http://www.pcgameshardware.de/aid,646656/News/pcinlife_GTX_200_Benchmarks_von_3DMark_06_und_Vantage/

Hier wurde ein referenzgetakteter QX9650 genommen.Wenn ich jetzt mal intels Flagschiff bei 4 GHz nehme, wo die X2 20.000 3DMark06 bekomt, muss die GTX 280 bei Standardauflösung zwangsläufig weniger als 20.000 bekommen haben...

Eben... Der 3DMark 06 ist nur ein synthetischer Benchmark jedoch sagt er schon was aus! Die Karte ist dort langsamer als ne hd3870x2?? Das kanns ja wohl nicht sein oda?
 
BullRun schrieb:
LOL nach ueber 20 Jahren im Geschaft jubelt mir niemand irgendeine Faelschung unter.Ihr wart vermutlich noch nicht geboren da hab ich schon Slot1-Celerons als Pentium Faelschungen identifiziert.

Tja, wenn du schon sooo lange im Geschäft bist, dann erinnerst du dich ja bestimmt an die GeForce FX5800?!

NVIDIA hatte mit der GF Ti 4600 vorher eine beeindruckende Grafikkarte losgelassen, mit welcher sie mit der bis dato führenden Radeon 8500 den Boden wischten, dann kam die Radeon 9700Pro und lernte NVIDIA das Fürchten..
(hach :) , schön mal wieder Radeon ohne HD vornedran zu schreiben)

Wie dem auch sei; NVIDIA "konterte" damals, mit einer Grafikkarte, von der Heute schlicht als "der Föhn" gesprochen wird.. Wer nochmals in Erinnerungen schwelgen will, die Kumpels von PCGH haben einen netten Video auf Youtube gestellt und auch NVIDIA selbst hat sich später über diese Karte lustig gemacht..

Die Performance-Krone blieb für NVIDIA damals in unerreichbarer Ferne, die 9700Pro und ihre Nachkommen stampften alle FX-Abkömmlinge einfach in den Boden..

Was sieht man daran? Es wiederholt sich alles, immer und immer wieder! Wie damals ist NVIDIA wieder mal nicht auf den neuesten DirectX Zug aufgesprungen und wie damals versuchen sie es wiederum als unnötig abzutun. Wie damals starten sie mit einem überholten Konzept und wie damals werden sie wieder von Ati... :P
Nee, Nee :D !!
Wir wollen erst mal warten, bis die Babys draussen sind! :D

@Roi
Das Einzige, was ich mir denken kann, ist dass beide Chips am selben Bild rechnen..
Das ist theoretisch möglich und würde auch erklären, weshalb keine Mikroruckler mehr sichtbar sind, da ja so auch kein ARF zum Einsatz kommt..
Mal abgesehen davon; Ich habe ja eine dieser Crossfire-Konfigs und mir wären bisher noch keine Mikroruckler aufgefallen..
...
 
Zuletzt bearbeitet:
lübke, das soll nicht wertend zu verstehen sein. ich, berufstätig und ledig, investiere ebenfalls gerne in einen guten computer. mein jetziger ist, für meine verhältnisse ein richtiges schnäppchen gewesen, etwa anfang 2004 für etwa 1300€ gekauft. mein nächster wird sehr wahrscheinlich sas platten sein eigen nennen, wenn es bis dahin nicht (wirklich) schnelle ssd platten im bereich von etwa 120gb gibt. allerdings kauf ich einen rechner, der dann mindestens 4 jahre "unter dem tisch stehen muss" . der jetzige wird dann voraussichtlich 5 bis 6 oder gar 7 jahre auf dem buckel haben, was dann allerdings auch 1 bis 2 jahre über dem schnitt bei mir liegt (prozessorseitig kommt frühestens mitte nächsten jahres wieder was auf den markt, was mich reizen wird). wie dem auch sei. mein nächster rechner dürfte somit die 1200€ locker überbieten. aber auf die laufzeit betrachet halte ich das für einen ausgeglichenen anschaffungspreis. dennoch greift dann auch bei mir meine auflistung (urlaub auf balkonien hat nicht nur nachteile *g*). und bitte nicht lachen, die ist gar nicht mal so weit an den haaren herbei gezogen. ich sehe doch, wie es bei freunden und arbeitskollegen lief und läuft, die sich mal ab und an etwas leisten / gönnen, was schon ausserhalb von regulären anschaffungen liegt (vom neuen segelboot, über das motorrad, zu den von dir genannten blingbling-alu-felgen, bishin zum 3 monatigen urlaub in australien, samt transport des eigenen segelflugzeuges, um halt, die gesammte zeit über, die thermik den hintern massieren zu lassen. da können ehefrauen, vor allem wenn kinder auch mit von der partie sind, seeeehr schwer zu versöhnen sein *g*)
:-)

*fix die jahreszahl korrigiert*
__

Dark Soul schrieb:
...
Nein waren wir nicht! Willst du jetzt nen Balon?
...
bin jahrgang 73, bekomme ich bitte auch einen *liebschau* ;)

warum gibt es eigentlich gerade im it bereich noch immer solche gestalten, die meinen, aufgrund ihres alters, den larry raushängen zu lassen? schliesslich es gibt immer einen grössern fisch und der muss hier definitv nicht älter sein!
 
Zuletzt bearbeitet:
gruffi schrieb:
Und das Ziel dabei ist letztendlich eines, die Produktionskosten zu senken.
Nicht unbedingt.
Das Ziel heißt maximaler Gewinn.
Wenn man trotz teurer Produktion viel Gewinn dank hohem Absatz macht (siehe G92), dann stimmt alles.
 
Zurück
Oben