News Weitere Hinweise zur Leistung der HD 4870 X2

quotenkiller schrieb:
warum gibt es eigentlich gerade im it bereich noch immer solche gestalten, die meinen, aufgrund ihres alters, den larry raushängen zu lassen?
Wie heisst es doch so schon, Alter schützt vor Torheit nicht. :)

Ich habe aber auch noch etwas für BullRun.

Aeusserlich zu 100% identisch mit einer 8800GTX G80(fruehe Version) gehts 3D maessig komplett ab .In Vantage ist sie mehr als doppelt so schnell und laeuft ca 10 Grad kuehler und somit auch ruhiger.Hab eh keine Garantie, deswegen noch heute Kuehler runter ,Speicher checken und wenigstens auf 8800gtx Taktniveau bringen.Spaetestens das und ein fertiger Treiber laesst jegliche Konkurrenz weit hinter sich,garantiert!
http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390
This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280!
Na, mal schauen, wer am Ende richtig liegt. Oder bei wem das Wunschdenken zu gross war. :baby_alt:

Nicht unbedingt.
Das Ziel heißt maximaler Gewinn.
Wenn man trotz teurer Produktion viel Gewinn dank hohem Absatz macht (siehe G92), dann stimmt alles.
Der Vorsatz für die Vergrösserung von Wafern heisst grundsätzlich, mehr Chips pro Wafer zu erhalten, um damit die Produktionskosten zu senken. Wie der Gewinn dann maximiert werden kann, steht auf einem anderen Blatt. Denn dies ist von vielen Faktoren abhängig. Wenn der Markt zB nicht wächst, ist es unnötig, mehr Chips zu fertigen. Genauso wäre es falsch, gleich viele Chips zu fertigen, wenn der Markt wächst. Die Entscheidungen hier sind vor allem marktstrategisch geprägt.
 
Zuletzt bearbeitet:
Frage mich wie sehr man ein Unternehmen lieben muss wen man so kurz vor Release noch über 800€ ausgibt für ne Karte die ein Paar Wochen später die Hälfte kostet. Mann muss Liebe schön sein :-)
 
Sollte das stimmen von PCGamesHardware, wird mein Rechner wohl in Zukunft nicht mehr so Nvidiagrün sondern eher ATIrot werden.

Aber Zeigen werden es erst richtige Tests.
 
nWarrior schrieb:
Das ist Müll! Dieser User weiß selber nicht, was er will! Früher hat er noch gepostet, wie toll die GTX 280 sei. Aber kein Wunder, wenn man von GTX 280 etwa 100fps in Crysis erwartet, ist DAS eher Wunschdenken.

In einer Woche weisst du es ja! Überzeugen kann man sich auch ohne deine Kristallkugel;)

hoffe für dich du hattest recht:D sonst endest du bei mir als die Nr.1 der Falschen Wahrsager im jahre 2008:D dicht gefolgt von BullRun!

Wenn ihr recht hattet dann halte ich das nächste mal einiges mehr von euren Aussagen:)
 
Immerhin ist die GTX 280 keine komplett neue Architektur, man sollte also nicht mit utopischen Zahlen fantasieren...
Ich erwarte die echte Überkarte(neue Architektur) November diesen Jahres, normalerweise released NV immer ihre Brecher gegen Ende des Jahres. Weil ein 55nm Refresh vom GT200 kommt, bin ich mir nicht sicher ob schon gegen Ende des Jahres, die neue Architektur kommen wird.

Wenn das stimmt das ATI bei CF die Microruckler gefixed hat, dann wird das Rennen knapper als gedacht. Ein echtes Kopf an Kopf Rennen wie schon lange nicht mehr. Wenn es allerdings nur halbherzig oder teilweise gefixed wurde dann ist CF immer noch nicht ausgereift genug um mit einem single Core verglichen zu werden bzw. die meisten sind nicht bereit für eine High End Karte zu zahlen und dann irgend welche Probleme zu haben.


Wie es aus sieht geht der harte Kampf im GPU Segment mit ungebrochener Härte weiter -> kann es gar nicht mehr abwarten den Test hier auf CB zu lesen ;)
 
Kasmopaya schrieb:
Immerhin ist die GTX 280 keine komplett neue Architektur, man sollte also nicht mit utopischen Zahlen fantasieren...
Ich erwarte die echte Überkarte(neue Architektur) November diesen Jahres, normalerweise released NV immer ihre Brecher gegen Ende des Jahres. Weil ein 55nm Refresh vom GT200 kommt, bin ich mir nicht sicher ob schon gegen Ende des Jahres, die neue Architektur kommen wird.

Wenn das stimmt das ATI bei CF die Microruckler gefixed hat, dann wird das Rennen knapper als gedacht. Ein echtes Kopf an Kopf Rennen wie schon lange nicht mehr. Wenn es allerdings nur halbherzig oder teilweise gefixed wurde dann ist CF immer noch nicht ausgereift genug um mit einem single Core verglichen zu werden bzw. die meisten sind nicht bereit für eine High End Karte zu zahlen und dann irgend welche Probleme zu haben.


Wie es aus sieht geht der harte Kampf im GPU Segment mit ungebrochener Härte weiter -> kann es gar nicht mehr abwarten den Test hier auf CB zu lesen ;)

Unwahrscheinlich, dass Nvidia dieses Jahr ne neue Architektur rausbringt (G100?). Allerhöchstens der GT200b in 55nm, doch auch dieser soll erst Ende dieses Jahres oder gar Anfang nächsten Jahres rauskommen.

Mit der nächsten Gen könnte man also erst Mitte 2009 rechnen oder gar später.
 
Allerhöchstens der GT200b in 55nm, doch auch dieser soll erst Ende dieses Jahres oder gar Anfang nächsten Jahres rauskommen.

Also laut The Inquirer hatte der G200b schon sein Tape-Out und ist somit gar nicht mehr so weit weg.
NVIDIA wird auch gut daran tun wenn die Yields dort halbwegs gut sind, so schnell wie möglich den G200 abzulösen. Schliesslich ist die Herstellung vom G200 nicht wirklich wirtschafftlich und wenn ATI dann vielleicht wirklich was schnelleres für weniger Geld im Portfolio hat, kann NVIDIA nichtmal mehr grossartig mit dem Preis spielen.
 
Sheeep schrieb:
So:
http://de.youtube.com/watch?v=GbcGyXtEu_E

Ich hatte das vorallem in Crysis, COD4 und FSX...so kannst nicht zocken!

schön das mal wirklich gesehn zu haben und in guter qualität...

Ist tatsächlich nicht wirklich spielbar, zumindest wenn man bedenkt wieviel geld in so ne hardware gesteckt wurde...

Es ist irgendwie seltsam, flüssig aber am ende dann doch rucklig, wirkt aber von szene zu szene unterschiedlich drastisch(wobei da auch echte frame einbrüche mit dabei gewesen sein dürften). Auf jedenfall unangenehm zu sehn, hoffentlich kriegt ATI das mit den Rucklern wirklich hin...

BullRun schrieb:
@33

Das hat sich vielleicht eben so angehoert aber ich bin kein nvidia Fanboy .... eher Leistungsfanboy .Jahrelang hab ich hin - und hergewechselt ,je nachdem wer das Schnellste zur Zeit hatte.

Siehste, und so wie es Leute wie dich gibt, gibts leute wie mich, die auch von Hersteller zu Hersteller wechseln und das nehmen was die beste Preis Leistung hat zu moderatem Preis, mal ists ne Radeon 9600 dann ists ne Geforce 6600 etc. Jetzt ist mal wieder ATI drann mit der 4870 Bombe :)

Was nützt mir ein 500-600 Euro teurer GPU, wenn er nur knapp 20-30% schneller ist als der halb so teure ATI GPU?! Richtich: nichts. Ich mag effiziente sparsame GPUs, keine teuren Monster Chips, die zwar mehr leisten, deren Preisverfall mir aber in Kürze den Hintern aufreißt und ich mich grün und blau ärgern kann wenn nach nem halben Jahr 200-300 Euro an Wert flöten gehen, weil schonwieder das bessere modell am markt eintrifft. Mal abgesehn davon, dass ich mit 600 euro nen gaming PC baue und nicht nur ne Grafikkarte kaufe :king:
 
Zuletzt bearbeitet:
Ich mag effiziente sparsame GPUs, keine teuren Monster Chips, die zwar mehr leisten, deren Preisverfall mir aber in Kürze den Hintern aufreißt und ich mich grün und blau ärgern kann wenn nach nem halben Jahr 200-300 Euro an Wert flöten gehen, weil schonwieder das bessere modell am markt eintrifft.

Das kann man aber von der 8800GTX/Ultra eher nicht behaupten, die hatte ihren Startpreis von ~500€ fast ein ganzes Jahr lang halten können.
 
Halte es für absolut unglaubwürdig, dass Bullrun die neue Karte schon besitzt.

Wenn jemand angeblich 800€ für eine Karte ausgibt, nur um sie möglichst früh zu besitzen, dann ist das erste was solche Leute machen, Fotos und Benchmarks, mit denen sie dann im Forum rumprotzen.
 
@Orbmu2k: Schon klar, aber das war auch ne andre Situation!

Die GT200 wird extrem schnell an Wert verlieren, wirst schon sehn ;)

-einfach weil der abstand zu ATI nicht groß genug ist, ich rechne mit, wie geschrieben, 20-30% mehr power als ne single 4870 Karte und ATI wird ne 4870X2 stellen, die dann die 280GTX wegfegt, micro ruckler hin oder her, das interessiert die leute die sowas kaufen in der Regel nicht, merkt man auch daran wie beliebt die 3870X2 durchgehend war. Die Masse sucht die Performance Krone, egal mit welchen Abstrichen, ich persönlich würd mir keine 4870X2 kaufen, genausowenig wie eines der beiden NV Monster...

Die 3870 steht ja auch nur hoffnungslos langsamer als die 8800GT da, weil sie in den AF/AA Einstellungen so absackt, ohne diesen Makel wäre sie erheblich besser positioniert, und dieser Mangel wird mit der 4870 ausgebügelt, ATI hat nicht geschlafen und klug verbessert, endlich wird man das echte Potential der "R600" sehen, schade dass es ein Jahr zu spät kommt ^^
 
Zuletzt bearbeitet:
stimmt schon, wärend nv seit eineinhalb jahren schon mangels konkurrenz auf der stelle tritt hat ati gezielt all die (doch zahlreichen) schwächen vom r600 ausgemerzt und kann jetz sicher mit einem sehr ausgewogenen und durchdachten chip punkten :) bei nv gabs beim g80 eigentlich von vornherein keine gravierenden schwächen wo eine entwicklung in eine bestimmte richtung viel gebracht hätte... da wird wohl nur mehr rohleistung kommen... da der g80 (und dessen refreshs) aber schon sehr ausgeglichen ist, wirds sicher sehr interessant werden :)
 
Der G280 hat ähnliche Leistungen wie ein doppelter G92, allerdings mit weniger Takt. Mehr kann man auch nicht erwarten. Ich denke, NV hat dieses Mal verloren, weil man dieses mal nicht auf neue Technik gesetzt hat. Zudem bekommt der G200 ja auchnoch ein Refresh, also immernoch kein D3D10.1. Dieser würde theoretisch bei ca. 420mm² liegen, ist also immernoch riesig (R600 Grösse). Im Midrange siehts nicht besser aus, der 55nm G92 wäre ca. 230mm² gross, also fast so gross wie der RV770 aber deutlich weniger leistungsfähig.

Das µRucklerproblem werden wohl beide Hersteller mit G200 bzw. RV770 lösen, das ist eine recht einfache Treibergeschichte, die aber effektiv programmiert werden muss, damit das so wenig Leistung kostet wie möglich.

Gegen die offensichtlich äußerst effiziente RV770 Generation hat NV diesmal nichts effektives aufzubieten, auch mit dem 55nm Shrink nicht. Klarer Fall von auf der den eigenen Lorbeeren ausruhen würde ich sagen. Für den Markt ist es besser, wenn sich auch mal wieder was dreht, also AMD mal wieder Erfolge feiert, also kann man das eigentlich nur begrüssen.
 
Zuletzt bearbeitet:
HOT schrieb:
Der G280 hat ähnliche Leistungen wie ein doppelter G92, allerdings mit weniger Takt. Mehr kann man auch nicht erwarten. Ich denke, NV hat dieses Mal verloren, weil man dieses mal nicht auf neue Technik gesetzt hat. Zudem bekommt der G200 ja auchnoch ein Refresh, also immernoch kein D3D10.1. Dieser würde theoretisch bei ca. 420mm² liegen, ist also immernoch riesig (R600 Grösse). Im Midrange siehts nicht besser aus, der 55nm G92 wäre ca. 230mm² gross, also fast so gross wie der RV770 aber deutlich weniger leistungsfähig.

Das µRucklerproblem werden wohl beide Hersteller mit G200 bzw. RV770 lösen, das ist eine recht einfache Treibergeschichte, die aber effektiv programmiert werden muss, damit das so wenig Leistung kostet wie möglich.

Gegen die offensichtlich äußerst effiziente RV770 Generation hat NV diesmal nichts effektives aufzubieten, auch mit dem 55nm Shrink nicht. Klarer Fall von auf der den eigenen Lorbeeren ausruhen würde ich sagen. Für den Markt ist es besser, wenn sich auch mal wieder was dreht, also AMD mal wieder Erfolge feiert, also kann man das eigentlich nur begrüssen.

Jo klar und der RV770 ist ja eine komplette Neuerung und hat auch rein garnichts mit dem RV670 zu tun. Jaja und Nvidia hatte natürlich Urlaub gemacht während der Zeit. Ich habe sogar Huang in der Karibik getroffen. Und DX10.1 ist auch noch extrem wichtig! Ohne diesen Standart würde die Computerwelt zusammenbrechen.

Komm mal wieder runter von deiner Traumwelt. Der RV770 ist genauso wie der GT200. Effizienterer Chip basierend auf der alten Architektur! Mehr auch nicht!
 
@HOT: so unterlegen wie du denkst ist der g92 gar nicht. die 8800gtx ist etwa gleichstark wie die 4850. der g92 ist als reine gpu bekanntermaßen schneller, da höher taktbar. um die rechenleistung einer 4870 zu erreichen sollten theoretisch beim g92 748mhz notwendig sein, allerdings müsste dieser auf dem pcb der 8800gtx verbaut sein um die speicherlimitierung zu verhindern. an der 8800gs/9600gso sieht man ja, dass der g92 auch die "krummen" bitwerte kann (192bit x 2 = 384). theoretisch könnte man also mit den "alten" bausteinen eine entsprechende karte bauen, ohne irgendwas entwickeln zu müssen... dass die 748mhz kein problem sein sollten, sieht man ja an den 740mhz 8800gt modellen von asus und evga und an der 9800gtx von xfx... der g92b sollte erst recht keine probs damit haben...
was die stromsparmechanismen angeht, das ist wohl eine reine gpu-biosfrage. man kann sich die ja selbst einstellen (bei der 2900 sehr verbreitete praxis) da scheiterts wohl bisher nur am interesse seitens nv, aber ab der gtx2x0 haben die ja diese einstellungen zumindest im highend im einsatz, hoffen wir mal dass das auch bei den "9900" verwendung findet.
gegen dx10.1 wehrt sich nv ja wehement, was aber mangels entsprechender spiele wohl eh wayne ist...
wenn ich im mom eine der beiden firmen leiten könnte würde ich wohl nv den vorzug geben, da ich sie immernoch leicht vorne sehe, aber ati hat ziemlich stark aufgeholt und dürfte in der kommenden generation nv wohl kaum noch nachstehen. nur die x2 muss sich halt noch beweisen und zeigen, dass sie eine alternative zu einem schnellen einzelchip darstellen kann. aber auch das scheint ja bei der 4870x2 schon sehr gut zu funktionieren :)
auf jedenfall wirds spannend ;)
 
@BullRun:
Interessant wie du mit den wenigen Informationen, die über mich hier stehen auf meine Person schließen kannst. :lolWo kann ich diese Fähigkeiten erlernen? :D

Andere Leute haben andere Interessen und geben Geld fuer Dinge aus die ich nicht mal kenne.

In der Tat ich gebe für Modellbau weitaus mehr Geld aus als für PCs. Nur habe ich mit meinem RC-Auto auch noch in 5 Jahren Spaß und an der Eisenbahn noch in ein paar Jahrzehnten. Mit deiner GTX wirst du aber kaum noch in 2 Jahren Freude haben, mit den dann aktuellen Spielen versteht sich.
Ich könnte mir auch ne GTX 280 zulegen und nicht nur eine, aber wofür? Ist doch aus dem oben erläutertem Grund ziemlich sinnlos.
arbeitnehmer (unverheiratet): nice!!! den nächsten urlaub etwas kürzen, oder auf balkonien verbringen

Auch wenn das nur theoretischer Natur ist, aber wie PC-süchtig muss man sein um seinen Urlaub o. ä. gegen eine Grafikkarte einzutauschen?

MfG Pantherfibel
 
HI Leute,

denke viele Leuten haben viel objektives und wirtschaftlich korrektes gesagt

ach ja @ BULLRUN geh spielen du overclocker mein rechner ohne karte frisst schon 200w?
20 jahre im geschäft wie wird noch die TDP berechnet???
kleiner TIPP: geh ins chip forum wenn nen paar kindern was erzählen willst ;-)


NEWS: rv770 mit 800 anstatt 480 shadern

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7805&Itemid=1
 
nWarrior schrieb:
Jaja und Nvidia hatte natürlich Urlaub gemacht während der Zeit.
Natürlich, ist doch naheliegend. Vor einem Jahr hat man zum R600 Launch alle Entwickler entlassen und den Keller abgeschlossen.
Bis Nvidias Entwicklungsabteilung wieder voll besetzt ist dauerts jetzt ein Jahr, dann noch mal 5 Jahre bis die neue Architektur draussen ist und schwups ist Nvidia 2014 wieder konkurrenzfähig.

Lübke schrieb:
allerdings müsste dieser auf dem pcb der 8800gtx verbaut sein um die speicherlimitierung zu verhindern
Wird nichts bringen, mit 16 ROPs gibts bei G92 eben 256bit SI. Weniger geht immer, deaktivieren ist leichter als herzaubern.
Vollwertige G92 gibts bereits für 150€, G92b ruft, bringt Mehrtakt und/oder einen niedrigeren Preis, bei Bedarf gibts auch noch GDDR5.


Immer wieder toll, wie man den RV770 als Wunderwaffe in allen Lagen bezeichnet. Die Vergangeheit lehrt uns: Preislich hat RV770 keine Chance gegen G92(b).
 
Zuletzt bearbeitet:
Zurück
Oben