4870(CF) vs. GTX 260(SLI)

Philze schrieb:
mh mag sein.
Ok sorry, dass ich dich so angeschnauzt. Jedoch sind das eher Feinheiten, die eines eigenen Threades würdig sind.



^^ hoffe du hast es nicht zu sehr zu herzen genommen^^

aber du kannst ja sogar "den" Thread eröffnen, wo sowas halt geklärt wird.
 
sry für doppelpost



mh ist jetz jeder miot der liste so wie sie ist einferstanden?
 
Vulture_Culture schrieb:
@ All
redet bitte die Leistung von der 4870 nicht klein. (...) Gut: Die Wärme und der Verbrauch ist ein proble aber: war das bei den High-End Karten von NV auch nicht so?
Bitte fasst das jetzt ncith als beleidigung auf, aber es gibt hier Einige, die die 70 wirklich schlimm runterreden.

Denke die Leistung bezweifeln die allerwenigsten - wer das tut leistet sich ohnehin nur HighEnd - die früheren Maßstäbe von "HighEnd" sind nun aber neu definiert, alte Maßstäbe (wie etwas Vergleiche mit 8800 Ultra u.ä.) sollten meiner Meinung nach revidiert werden. Angelegt werden müssen heute Effizienz hinsichtlich der theoretischen Möglichkeiten aufgrund der Strukturen, Vorteile etwa durch schnelleren GDDR5, höheren Taktraten, Shader-Einsatz u.v.w.m.

Persönlich will ich nicht nur alte Technik unter neuen Marketing-Namen kaufen, sondern Vorsprung durch Weiterentwicklung. Ist im Ergebnis der Performance-Zuwachs - zugegeben > gemessen mit "alter" Software - bei nur 20-40 Prozent, warum solle ich einen Kauf in Betracht ziehen ?

Die alte Formel, eine Grafikkarten-Generation zu überspringen, findet in aller Euphorie über günstige Einstiegspreis scheinbar keine Anwendung mehr. Abwarten angesichts täglich fallender Preise ist heute mehr denn je anzuraten. Wir erleben aktuell nichts Neues zu früheren Release-Terminen: hohe Preise, unsichere Treiber-Situation, keine verläßlichen Angaben, wann Bugs beseitigt werden.

Dennoch "rennen" die Benchmarks auf und davon, da soll man nicht schwach werden :D

Philze schrieb:
mh ist jetz jeder miot der liste so wie sie ist einverstanden?

Mir zuviel Klickibunti, grüne Farbe schlecht lesbar, vielleicht noch die Unterzeilen einrücken, aber "paßt scho" :daumen: die Möglichkeiten im Editor sind nun mal begrenzt.
 
ok aber die grüne farbe gibt ja auch immer das selbe wieder, also muss man nicht "lesen" in dem sinne.

Hast aber rech..alles ziemlich bunt geworden^^

Mir geht es aber jetzt ausschließlich um den Inhalt
 
Also der Fred ist mir gerade aufgefallen, und auf den ersten Blick gefällt mir die Auflistung. Objektiv auf dem CB Test aufgebaut, übersichtlich.
Die Farben sehen auch gut aus, trägt meiner Meinung nach zu einem guten Gesamtbild bei.

Eventuell könntest du ein Bild aus dem Test in den Anhang laden (meiner Meinung nach bitte nicht in den Post sondern als Thumbnail in den Anhang so wie ich).
>>Editieren >> Erweitert>> ganz unten Anhänge verwalten >> Datei von einer URL hochladen:
4870: https://pics.computerbase.de/2/2/1/0/3/17-1080.1449753934.jpg
260GTX: https://pics.computerbase.de/2/2/1/0/3/16-1080.2254647445.jpg

Eventuell noch einen Link zum Test setzen, "ausführlicher Test kann hier nachgelesen werden: Radeon HD 4870 (CF) vs. GeForce GTX 260 (SLI) " oder so in der Art.

sonst find ich die Zusammenstellung gelungen.

PS: es heißt doch IND>>I<<SKUTABEL, NICHT IND>>E<<SKUTABEL;) Kommt denke ich von Diskutieren...editieren bitte :D
 

Anhänge

  • 17.jpg
    17.jpg
    212,1 KB · Aufrufe: 437
  • 16.jpg
    16.jpg
    160,8 KB · Aufrufe: 453
Zuletzt bearbeitet:
Philze,

ich versteh deine Kriterien net ganzg,

du führst bei der 4870 den Lastverbrauch als contra... bei der GTX260 verbraucht das ganze system 13watt weniger..angesichts der leistung ist dies fast das selbe..dort wird es aber nicht als contra erwähnt.

dann sagste noch das mit der leistung in hohen auflösungen...ich verstehe nicht,wie du da drauf kommst.

nur weil ausnahmsweise die GTX260 in 2560x1XXX knappe 5% schneller ist,gleihc davon zu reden,dass die 4850 in hohen auflösungen die puste aus geht..naja, wenn du meinst.


gruß
 
ihr geht ja nicht wirklich die puste aus, jedoch kann sie sich bei 1600 1200 ja gute 4% VOR die GTX260 setzen. Bei 25001600 liegt sie 4% HINTER der GTX. Relativ gesehen verliert sie 8% gegenüber der GTX und das nenn ich dann doch einknicken.
@ michi..jo das würd dem ganzen vllt noch nen feinschliff geben.
aber hey^^ wenn ich schon weiß, wie ich einrücke, alles farbig mach und so, dann weiß ich doch au bestimmt, wie ich thmbnails einfügen kann:king: aber vielen dank für die URL's der Bilder

EDIT: @schinzi...doch wird es^^ eins der wenigen Contra Punkte der GTX260. und nein, das hab ich nicht noch später eingefügt.
 
Zuletzt bearbeitet:
so hab mich noch mal was ins zeug gelegt, was das layout und gewisse rechtschreibfehler betrifft. Hoffe jetzt sind möglichst viele Zufrieden und ich wage es einfach mal zu behaupten, dass dies wohl das ist, was mein Ziel war. Neutraler Vergleich, Stärken und Schwächen vorgeführt, User können sich ein eigenes Bild machen.

Wenn es noch Kritik gibt, dann nur zu. Denn genau das ist ja der Sinn der Sache...viele Meinungen hören und dann zusammenfassen.
So..gut Nacht allen...und an alle die mitgemacht haben..THX

PS: Lasst mich wissen, ob sowas überhaupt hilfreich ist...und ob sich die Mühe für folgende Grafikkarten lohnt.
 
Zuletzt bearbeitet:
Eine HD4870 ist idle als ziemlich leise anzusehen, die GXT 260 ist fast 3x mal so laut und problemlos raushörbar (0,3 Sone zu 0,9 Sone). In 3D brüllen beide auf, die 260er ist aber etwas dumpfer.

Der Einbruch durch die 512 MiB ist bedeutend größer als 10%.

DX10.1 = Assassins Creed

cYa
 
dann sollen die handvoll leute mit nem 30er monitor eben auf ne 4870 mit 1024 ram warten.

in der auflösung eines 22er gibts keinerlei einbruch, ganz im gegenteil. der abstand mit höherem AA wird immer größer zur GTX.

und bei nem 22er ist die ati ganz klar die bessere karte.
 
Hehe mal was anderes
http://www.youtube.com/watch?v=Bz7AukqqaDQ

Nvidia wird hier ne ecke zu legen müssen das wird die Medusa Demo in den Boden stampfen :-)
Wieder einmal haben die ATI Ingenieure und Coder Debevec seine Forschung konsequent in Realtime realisiert wie schon zuvor bei der Realtime Lighting Demo, nur diesmal auch Realtime Lightning für Charektere gepart mit RasterRaytracing Ruby wird euch alle umhauen dagegen sieht der Typ aus der Medusa Demo super künstlich aus und das in 720p :-D (Okay nicht von den ATI Codern diesmal sondern 3rdparty aber auch das richtige näschen für sowas muss man haben um den richtigen 3rdparty zu finden und zu aquerieren für sein Produkt)
Nun brauch man sich auch nicht zu Wundern wieso Gelato plötzlich kostenlos ist und nicht mehr weiterentwickelt wird in welcher Richtung wird Nvidia da wohl momentan Forschen ;-) (Es schaut so aus als verliert Nvidia kangsam aber sicher Hollywood mit ihren Quadros)

Siehe auch http://www.tgdaily.com/content/view/38145/135/

etwas über Jules Urbach :) (seine Raytracing Engine kommt hier zum Einsatz bei der Cinema 2.0 Demo)
http://www.variety.com/article/VR1117985040.html?categoryid=3046&cs=1
http://www.nytimes.com/2004/10/21/technology/circuits/21engi.html?_r=1&oref=slogin
http://www.otoy.com/site/start.htm

Jules seine Engine (man hört nie was von leuten die bei Jules World arbeiten er wird doch nicht der einzige sein???) wird sicher nächstes jahr auch der CryEngine 2 und Unreal Engine 3 auf der GDC und Siggraph das fürchten leren (dumm Epic konnte ihn nicht kaufen wie vorher die Reality Engine hehe, vieleicht versuchen sie es aber auch noch hehe)

Ein bischen suchen und man findet
http://www.mobygames.com/developer/sheet/view/developerId,149029/
 
Zuletzt bearbeitet:
Philze schrieb:
die chips von CB ließen aber nicht mit sich machen^^

Der Chip von CB lies sich nur mittels CCC übertakten da noch keine anderen Tools zur Verfügung stehen und da waren eben die Schieber auf Maximum, nur weil CB den Schieber ned weiter nach oben schieben konnte, heißt das nu nich, dass es nicht noch weiter gegangen wäre :p
 
@antimon.aber auch nicht, dass sie es schaffen. Der Vergleich beruht auf den CB Test. Und nichs anderem
 
Jo sicher nur heißt es im Zweifel für den Angeklagten und nicht schuldig weil die Unschuld nicht bewiesen werden konnte ;)

Wenn dann müßtest die Übertaktungsmöglichkeit mit "unklar, da noch nicht voll messbar" werten und nicht mit ausreichend.

Erolli schrieb:
Nach langem Studium der vorliegenden Reviews/Erkenntnisse zu den NextGen Nvidia's/ATI's habe ich folgende Faustformel "herausgearbeitet":

bis 22" -> ATI
ab 24" -> NVIDIA

Stimmt so nicht ganz, müßte heißen:

bis 22" -> ATI
ab 24" -> Nvidia, oder ATI mit 1GB RAM
 
Zuletzt bearbeitet:
das wär ein kompromiss^^
 
@ erolli

das soll ja aber garnicht der sinn hiervon sein....dem Leser soll es selbst überlassen werden, für was er sich entscheidet. Diese Liste soll nur bei der entscheidung helfen. Vorraussetung ist hier natürlich, vorher wenigstens den Test gelesen zu haben. AUßerdem bis 22" ATI >22" Nvidia ist totaler Mist. Das zeigt ja, dass ihr garnicht verstanden habt, wodrum es hier geht...Es ist weitaus facettenreicher als nur auf die Auflösung zu gucken. Denn gerade das Drumherum einer Karte ist meist das entscheidende Kriterium. Man kauft sich ja die KArte und nicht Leistung.
Stromverbrauch, Laustärke und sogar die Temperatur sind oft entscheidend. Einfach zu sagen, bei 22" das und ab 22" das.....
 
LOL soviele negative Argumente für die ATI Karte war ja klar ;)

- Wer nur von 2500er Auflösungen spricht und schreibt sollte irgendwie mal merken, dass er zu vll 0.01% aller PC Anwender gehört.

- Weiterhin interessieren sich doch nur ein paar Freaks für OC einer Grafikkarte... sowas ernsthaft mit Aufzulisten ist einfach realitätsfremd.

- Genauso das DirectX10.1 mit der Zukunft die es hat nicht als Vorteil aufgezählt wird ist einfach nur parteiisch.
 
@ MixMasterMike

Wer für 200€ oder mehr ne GraKa kauft, wird aller Wahrscheinlichkeit nach schon OCen ;)

@ cosmicparty

In einigen UE3-Titel samt AA oder bei TES4 mit Quarls Mod oder bei AoC geht der HD4870/512 in 1.680 schon arg die Puste aus.

cYa
 
y33H@ schrieb:
Eine HD4870 ist idle als ziemlich leise anzusehen, die GXT 260 ist fast 3x mal so laut und problemlos raushörbar (0,3 Sone zu 0,9 Sone). In 3D brüllen beide auf, die 260er ist aber etwas dumpfer.

Kann bei der GTX260 die Drehzahl reduzieren im idle mode? (Riva Tuner)
 
Zurück
Oben