Bericht Bericht: Radeon HD 6800

Status
Für weitere Antworten geschlossen.
Ich habs extra leicht und verständlich aufgelistet und du zitierst mich teilweise..

Ich habe dich teilweise zitiert, wiel ich im Moment nur am Netbook sitzte und markieren mit dem Touchpad einfach schlecht geht .;)

BTW
auch nur anzunehmen, dass es annährend linear ansteigen sollte finde ich eigenlich lächerlich, weil man nie weis, wie effizient der jeweilige Chip noch ist, wenn ein Faktor mal weniger oder stärker limitiert, was unteranderem bei 4MSAA gegen 8MSAA je nach Spiel der Fall sein kann.
 
@engineer123
Wie grotesk sind deine Vergleiche bitte? Du gehst von einem einzigen Händler aus - dann auch noch von der Internet Apotheke.
Diese Topseller der Woche sind 0,0 repräsentativ und glaubst du das ein Verkaufsstart der gerade mal eine Woche her ist hat so eine massive Bedeutung. Wir kennen ja nicht mal das Skript das da arbeitet, wie es programmiert ist.

Ich kenne einen lokalen PC Händler, der hat am Freitag die Karten bei sich verkauft und 150 HD6850 am Lager gehabt - am Montag nachmittag waren diese allesamt weg. Die neue Lieferung am nächsten Tag war dann ebenfalls nach 2 Tagen wieder vergriffen.

Bei geizhals (was repräsentativer ist als alternate) sieht man eindeutig wonach die Leute suchen. Das ist schon ein recht klares Indiz wofür die Leute Interesse zeigen.

Momentan sieht es danach aus als ob die HD68xx Karten wie blöd gekauft werden und die Händler nicht nachkommen ihre Lager zu füllen. Es gibt auch Bestellungen die dann noch abgearbeitet werden müssen.
Die leicht höheren Preise ergeben sich aus "Angebot und Nachfrage" -> Das Angebot ist aufgrund der hohen Nachfrage niedrig, ergo die Preise steigen.

mace1978 schrieb:
Das ist doch nicht wahr, der Kunde bekommt, wonach er schreit. Dass das nicht immer in seinem Interesse ist, sieht er aber nicht.
Das stimmt so nicht ganz. Man könnte auch sagen das wir das zur Zeit vorherrschende Fernsehprogramm wollen - nur weil die Sender es anbieten und irgendwelche Leute das gucken - warum auch immer, heißt es nicht das wir "kunden" das wollen.
Das Problem ist einfach die geiz ist geil Geschichte, es muss alles nur noch "billig", günstig, günstiger sein.

Wenn ich sehe wieviele Leute schon gar nicht mehr wissen das es auch möglich ist mit einem Spiel Spaß zu haben wenn eben nicht alles auf Full HD bei 8xAA/16xAF ist. "Früher" hat man einfach die Details etwas runtergedreht und die Spiele haben trotzdem Spaß gemacht. Aber die Marketingleute haben es schon fast perfektioniert, die Grafikkarte muss im Zweifelsfalle alle Nase lang getauscht werden, so hat man hier zT den Eindruck.
 
Zuletzt bearbeitet:
Sebl schrieb:
Ganz ehrlich, ich lese hier mittlerweile schon ein paar Jahre mit und einer der wenigen User der wirklich immer versucht seine Meinung fundiert zu begründen ist Y33H@. Lest euch mal ohne voreingenommen zu sein seine posts durch und deine Antworten ... dann weiß man wer trollt.
y33H@ schrieb:
tomsen78 schrieb:
Zapf mal 50-100 Watt der GTX480 ab, dann bin ich mal gespannt auf wieviel FPS die Karte noch kommt.
Undervolten und einen gescheiten Kühler drauf verringert die Fps nicht ;-)
Nein, y33H@ trollt natürlich kein bisschen. Seine Aussagen sind immer sachlich, unvoreingenommen und fundiert, anstatt mal Schwächen von nVidia einzugestehen und diese zu beleuchten. :rolleyes: Er gibt immer vor, neutral zu sein. Tatsache ist aber, seine Aussagen vermitteln das genaue Gegenteil. nVidia wird schönredet, wo es nur geht, AMD/ATI wird schlechtgeredet, wo es nur geht. Und das zieht sich wie ein roter Faden über alle möglichen Themen hinweg. Und du willst anderen Voreingenommenheit unterstellen?


Sheeep schrieb:
Seh ich das richtig, dass man mit den richtigen treibereinstellungen das prob beheben kann?
(also (fast immer) die gleiche qualität bekommt wie mit dem catalyst 10.9?)
wo ist dann dass problem?
Das "Problem" ist, dass vorher (10.9) "AI Standard" die default Einstellung war und jetzt (10.10) "AI Qualität". Allerdings entspricht das alte "AI Standard" laut AMD vielmehr dem neuen "AI Hohe Qualität". Und das scheint zu viele zu verwirren, weil sie meinen, AMD opfert Qualität für mehr FPS. Was aber nicht stimmt, da Barts grundsätzlich höherwertig filtert, unabhängig von den Treibereinstellungen, zB weniger Banding. In der Praxis sind diese Unterschiede eh marginal. Wenn du nicht gerade mit der Lupe den Bildschirm nach Pixeln absuchst, wirst du keinen Unterschied feststellen.


bensen schrieb:
Ich weiß nicht ob der gewöhnliche User diese Seite hier liest. Und wenn ja so wird er immerhin jetzt dafür sensibilisiert.
Es ist wichtiger zu zeigen was die Karten bei gleicher Bildqualität leisten, als bei ihren default Einstellungen.
Wem das nicht zusagt kann ja andere Tests lesen. Einstellungen stehen immer dabei.
Polemisieren hat nichts mit Sensibilisieren zu tun. Und das mit den gleichen Voraussetzungen hatten wir ja schon mal. Willst du in Zukunft dann auch bei gleicher Leistungsaufnahme, gleicher Temperatur, gleicher Lautstärke usw vergleichen? Dieses Vorhaben ist absurd und weltfremd zugleich. Da brauchst du hier gar nichts runterzuspielen von wegen "wem das nicht zusagt kann ja andere Tests lesen". Karten müssen @ default verglichen werden. So werden sie schliesslich auch verkauft. Alles weitere, wie zusätzliche Modi für Bildqualität, Optionen zur Lüftertsteuerung, usw, kann separat betrachtet werden.

bensen schrieb:
Und? Testest du auf Q werden andere Karten benachteiligt, weils flimmert. Da nimmt man eben eher den kleineren Unterschied (Banding) als den größeren (Flimmern).
Alle Karten flimmern, mehr oder weniger. Und wenn du dir die Videos anschaust, ich kann da keinen Unterschied zwischen Barts Q und HQ bezüglich Flimmern sehen. Und jetzt erkläre mir noch mal, warum man auf HQ testen soll, wenn es keinen Unterschied gegenüber Q gibt.

bensen schrieb:
Wie kommst du auf das schmale Brett?
Die 6870 ist preislich der Gegenspieler der GTX470 und die 6850 der Gegenspieler der GTX460 1GB.
Und schwupps liegen die Karten mit vergleichbarer Bildqualität nicht mehr vorne sondern auf einem Niveau.
Offensichtlich solltest du dich erstmal vorher informieren. Selbst hier auf CB findest du Folien, wo klar wird, gegen welche Karten die HD 6800 Serie positioniert wird. Und da gehört die GTX 470 nicht dazu. Und wer mal ein bisschen nachdenkt, sollte auch von selbst darauf kommen, dass AMD nicht einen 255 mm² Chip designed, der dann gegen einen 530 mm² Chip antritt. Dass nVidias Felle davonschwimmen und sie mehr und mehr zu Preisdumping gezwungen sind, ändert an der Positionierung der HD 6800 nichts. Der Gegner heisst nach wie vor GF104 alias GTX 460.

bensen schrieb:
Hat doch schon mal geklappt. Nach massiver Kritik an der Winkelabhängigkeit war die auf einmal komplett weg.
Und du glaubst, das lag an irgendeiner Kritik? Träum ruhig weiter. :rolleyes:

bensen schrieb:
Was spricht denn jetzt dagegen auf HQ zu testen um somit am ehesten vergleichbare Bildqualität zu bieten?
Was dagegen spricht? Wie wäre es mit einem Nachweis, dass HQ sichtbar bessere Ergebnisse liefert als Q? Oder dass nVidia default sichtbar besser ist als AMD default? Und damit meine ich nicht irgendwelche selektiven Best-/Worst-Case Szenarien, sondern einen repräsentativen Mittelwert über eine Vielzahl an Szenarien. Und davon sehe ich rein gar nichts.

bensen schrieb:
Die Leistungsaufnahme wird doch jedesmal bemängelt. Die Leistungaufnahme jedesmal einzurechnen ist doch nicht vernünftig realisierbar und imho auch quatsch. Da ist eine seperate Messung und Bewertung sinnvoller.
Ach, und das soll bei Bildqualität nicht möglich sein? Sehr "interessante" Einstellung ... :rolleyes:


terraconz schrieb:
Anderes Beispiel wäre Stromverbrauch, wo sind denn die Fermi basher gewesen als die HD4870 draussen war und ein viel größeres Desaster als Fermi war? Sie war langsamer, viel schlechtere Bildquali, höhere Stromverbrauch und vorallem höherer Idle Stromverbrauch!
Du solltest erstmal deine Fakten richtig zusammenbekommen. HD 4870 und Desaster? :lol: Danke für den Witz des Tages. Der RV770 war ein 256 mm² Performance Chip. Der sollte gar nicht so schnell sein wie der 576 mm² High-End Chip G200. Dass es die HD 4870 trotzdem mit der kleinen Grossen (GTX 260) aufnehmen konnte, zeigt einfach nur, wie weit AMD bezüglich Architektur voraus ist. Genauso wenig hat die HD 4870 mehr Strom gebraucht. Die GTX 280 lag nochmal um einiges darüber. Das mit der Idle Leistungsaufnahme ist zwar richtig. Hier muss man aber relativieren. Das lag nicht direkt am Chip, sondern am GDDR5. Es gab BIOS Versionen diverser Hersteller, die das Problem behoben. Es war also nicht jede HD 48xx per se stromhungrig unter Idle. Die HD 4000 Serie war ein Erfolg für AMD, zurecht. Fermi ist dagegen einfach nur fehldesigned. Wobei man auch hier relativieren und fairerweise dazu sagen muss, der GF104 schlägt sich zumindest etwas besser als GF100. Auch wenn das Gesamtpaket des nVidia Chips gegenüber der Konkurrenz immer noch deutlich hinterherhinkt.

terraconz schrieb:
Fermi ist also das pure böse weil er so einen hohen LAST Stromverbrauch hat? (Idle ist Fermi vollkommen OK)
Laut HT4U (Idle):

HD 4870 = 53,40 W
GTX 260-216 = 44,90 W
GTX 480 = 48,71 W
GTX 470 = 30,90 W
HD 5870 = 19,83 W

So so, du echauffierst dich über die höhere Leistungsaufnahme der HD 4870, bei Fermi ist es aber vollkommen ok? Das musst du uns erklären.

Na ja, zum Rest deines Unsinns, wie "schlechtere Treiber" und ähnlicher Quark, sage ich lieber nichts. Lohnt nicht bei so viel verdrehten Tatsachen, die du hier zum besten gibst.
 
Zuletzt bearbeitet:
Ich behaupte mal, die meißten die hier über die so "miese" Bildquali meckern, haben bei der vor ca 1-2 Jahren stattfindenden Umfrage bei ATI was denn für dich wichtig bei einem Treiber sei, angeklickt, daß Geschwindigkeit das A und O wäre...

Wer braucht schon Qualität?
 
nur mal so als Frage: Was für ein Codec wird benötigt zum anschauen der Videos? Handelt es sich um einen Directshow- filter? Wenn Ja würde es erklären, warum Nvidia Nutzer alles flimmern sehen.
Ich wollte meine alte ATI 3870 gegen was Neues tauschen und hatte mich für eine gigabyte gtx 460 entschieden, da sie sparsamm/leise/preiswert und eine gute Leistung sugerierte.
Ich schaue Sat- TV mit dem Rechner (DVBviewer- EVR / immer neusten cyberlinkcodec).
Was soll ich sagen. Ich wollte meinen Augen nicht trauen - bei mpg2 (720x576) - Fußball Mpeg- Artefakte um den Spielern herum. Boar, Augenkrebs. Streifen wo keine sein sollten- einfach nur übel. Alte Ati 3870 rein und super Qualität. DXVA Checker bestätigt auch, das Nvidia nicht viel kann und das was die Karte können soll in unterirdischer Qualität.
Dazu kommen noch die Latency Problematik bei 460er Karten mit älteren Chipsätzen.
Fazit: Karte sofort zurück und jetzt warte ich auf 6870er Customs.

PS:. 3d war die Karte nicht schlecht, aber eigentlich und meiner Meinung nach z.B bei Mass Effect 2 hatte die 460er nur mehr FPS und das mit Kantengätung- Bild Quälität war vergleichbar mit meiner alten Ati 3870.
Leise sind beide Karten und Physix- naja was soll man dazu sagen 20 Games in 7 Jahren sagt eigentlich alles.
 
mace1978 schrieb:
Na ja, zum Rest deines Unsinns, wie "schlechtere Treiber" und ähnlicher Quark, sage ich lieber nichts. Lohnt nicht
Richtig, wenn ich hier Leute sehe die gerne ATi Treiber schlecht machen aber dann steht gleichzeitg das sie seit Jahren nur auf nvidia schwören und sowieso nichts anderes reinkommt und alles perfekt ist.... jaja :rolleyes:

Es ist einfach Fakt das jeder Hersteller irgendwo seine Leichen (begraben) hat und jeder Treiberprobleme hat. Wenn ich das in Foren sehe mit den letzten Treibern 260.89 / 260.99 was dort für Probleme auftreten.
Oft genug sind die Probleme einfach durch unsaubere Windowssysteme bedingt, genauso wie durch Softwarekopien und das herzallerliebste Ovreclocking - seitdem jeder "Idiot" übertakten kann steigen auch die Probleme an... :freak:
 
zeldafan1 schrieb:
Seit ich das gelesen habe werde ich keine Tests mehr von ComputerBase lesen. Da berufe ich mich in Zukunft doch lieber auf seriöse und "nicht herstelleraffine" Seiten.


Herstelleraffine? Jetzt geht es aber los! In letzter Zeit waren sämtliche Magazine viel zu freundlich zu AMD. Jetzt treiben die mit Tricksereien ohne Grund zu verschlechterungen und auf einmal sind die Magazine schuld, weil sie mal über den Tellerrand schauen?

Was eine verkehrte Welt? Ach, welche Seiten wären das? Sag jetzt nicht Semiaccurate, oder ich kugel mich weg. :lol:

In letzter Zeit kommt mir das Form eher so vor wie ein Kriegsschauplatz. Rote und Grüne Armee und sonst nichts - wie bei Risiko.

Ich versuche es mal zusammen zu fassen:

Punkt 1:
-AMD released eine neue Kartengeneration, die gleiche Namensgebung wie die alte hat (5800 vs 6800), die teilweise sogar langsamer sind. Begründet wird dies mit Erklärungen, die ein Laie nicht versteht (Performanceklasse neu definiert ..). In Tests schneiden diese Karten gut ab und werden je nach Seite sogar empfohlen.

-> irreführend, aber man kann das noch durchgehen lassen

Punkt 2:
-Es stellt sich heraus, dass die Karten garnicht so gut sind wie im Test, da bei Treibern gemogelt wurde. Gemogelt in dem Sinn, dass man Standardeinstellungen von "guten Einstellungen" in "weniger gute" geändert hat, ohne es mitzuteilen.
Die Karten gaukeln also mehr Performance, als sie tatsächlich haben. Zumindest im Vergleich zur Konkurrenz (ohne etwas zu sagen!!!).

-> Wettbewerbsverzerrung auf Kosten des Kunden

Punkt 3:
-Gäbe es solche Bedingungen in anderen Branchen, wäre das Geschrei um einiges größer. Stellt euch vor die Hersteller euer Fernseher oder Autos hätten sowas abgezogen. Währt ihr nicht etwas enttäuscht bis ziemlich sauer?

-> Ich nenne das mit zweieilei Maß messen

Punkt 4:
-Die Fraktion: "Zählt alles nicht" ist zu bemittleiden.

Scheuklappen haben sich noch nie gelohnt. Bei Grafikkarten gelten anscheinend andere Regeln. Da wird der "Stromverbrauch" neu definiert, die "Lautstärke" mit Richtmikrofonen gemessen und und und...
Mittlerweile vergleichen wir doch unsere Grafik wie im Quartett:


  • Person 1: Ich lege vor: soviel W TDP
  • Person 2: Ha, meine Karte ist sparsamer als deine, du verlierst
  • Person 1: Dafür hat mein Feature aber mehr X
  • Person 3: Das zählt nicht, keiner braucht X, mein Z schlägt dein X doch um (bla bla bal)
  • Person 4: Lüg doch nicht, Z gibt es garnicht, nur Y ist das Wahre

Merkt ihr eigentlich wie bescheuert das ist? Doch genau so läuft es zurzeit im Forum. Ihr braucht nur die Aussagen zu tauschen und es passt.

Punkt 5:
-Alle Redakteure von Computerbase haben eine Heidenarbeit, ständig gute und kompetente Tests zu liefern. Dabei machen sie einen guten Job. Klar müssen einem die Ergebnisse nicht immer gefallen, aber es wird zumindest versucht.

Für einge Leute hier im Forum wären schon lange länger Pause fällig, da sowas von diffarmiert und angefeindet wird, dass man es nicht mehr aushalten kann (bin viel gewohnt von Heise und Golem), doch manche ziehen einfach eine Masche durch, die nicht mehr feierlich ist.

-Seite/Tests angeblich gekauft /
-die und die Person hat mir den Loli geklaut -> wie im Sandkasten

Denkt daran, ihr seid "Gäste", nicht "Gastgeber". Evtl. könnte CB Heimrecht vom gebrauch machen, dann jedoch wären sie auch wieder die Bösen. Wenn es nicht gelegentlich so lustig wäre, würde sich das keiner antun.

Folge?
Computerbase muss jetzt reagieren und Hersteller mit solchen Methoden abstrafen. Bei Nvidia hat es schon geklappt, jetzt geht es bei AMD weiter. Solche Vorgehen müssen entdeckt und sanktioniert werden.

Ich denke die Änderung der Testbedingungen ist in diesem Fall nur konsequent. Der entstandene Rufschaden bei AMD, den bereits mehrere Magazine aufgreifen, sollte sich für AMD alles andere als gelohnt haben. Daran sind sie aber selbst schuld.
 
gruffi schrieb:
In der Praxis sind diese Unterschiede eh marginal. Wenn du nicht gerade mit der Lupe den Bildschirm nach Pixeln absuchst, wirst du keinen Unterschied feststellen.

Das ist je nach Content anders.
Hab jetzt schon 6 Spiele durch. Die Unterschiede sind je nach Oberfläche gleich null bis hin zu deutlich erkennbar.
Man muss schon auch die richtige Oberflächenstruktur wählen um das AF Flimmern deutlich unterscheiden zu können.
Also kann man ruhig den Bildvergleich ala Half Life 2 als Worst Case beschreiben.
Gothic 4 ist zumindest in der Burg aber vergleichbar mit Half Life 2. Ein so extremes Flimmerband entsteht bei Gothic 4 allerdings wie bei Half Life 2 nicht mit BartsQ oder HighQ.
Dort ist das Flimmern eher gleichmäßiger verteilt.
Videos kommen alle noch. Upload dauert und dauert.

Desweiteren habe ich sehr arg die Vermutung, dass zwischen Barts Q und Barts HQ überhaupt kein Unterschied besteht.
Oder dieser sehr sehr klein ist.
Ähnlich wie bei Nvidia Q zu HighQ.

Hab mir noch vom Nachbarn ne HD4870 geholt.
Diese wird dann auch nommal dem Savgame unterzogen.
Ne HD5k werd ich in nächster zeit wohl auch noch auftreiben, dann gibts dazu auch Videos.

gruffi schrieb:
Oder dass nVidia default sichtbar besser ist als AMD default?

Ist bei Cherry Picking und dem richtigen Untergrund deutlich sichtbar besser, soviel steht fest, dass musst du aktzeptieren, auch wenn Halif Life Worst case ist und das ganze Contentabhängig ist.
Das man hier mehr relativiern muss, ist klar, das sehe ich selbst, aber vielleicht kommen ja auch noch Videos von Wolfgang etc..

Hardware_Hoshi schrieb:
Ich denke die Änderung der Testbedingungen ist in diesem Fall nur konsequent. Der entstandene Rufschaden bei AMD, den bereits mehrere Magazine aufgreifen, sollte sich für AMD alles andere als gelohnt haben. Daran sind sie aber selbst schuld.

Naja, rufschädigend vielleicht durch übertreibungen.
Aber direkt niemals.
Die meisten testseiten werden da auch teilweise zurecht nicht darauf eingehen, weil es schlicht für 99% unwichtig ist.
Ich sehe da keinen triftigen Grund, warum AMD das AF im default verbessern sollte.
Ich glaub kaum, dass die neue Art zu benchen was bewirkt, die Hoffnung kann man aber sicherlich trotzdem haben, auch ergo zurecht.
 
Zuletzt bearbeitet:
gruffi schrieb:
Das "Problem" ist, dass vorher (10.9) "AI Standard" die default Einstellung war und jetzt (10.10) "AI Qualität". Allerdings entspricht das alte "AI Standard" laut AMD vielmehr dem neuen "AI Hohe Qualität".
Du gibts zu, das der Standard schlechter geworden ist.
Jetzt begründe noch, warum man in Zukunft die Test nicht mit der gewohnten Qualität, die jetzt unter HQ zu finden ist, durchführen soll.

Und das scheint zu viele zu verwirren, weil sie meinen, AMD opfert Qualität für mehr FPS.
10.10 Standard istschneller, hast du gerade zugegeben, also opfert AMD Qualität zugunsten der eigenen Stellung in Benchmarks.

In der Praxis sind diese Unterschiede eh marginal. Wenn du nicht gerade mit der Lupe den Bildschirm nach Pixeln absuchst, wirst du keinen Unterschied feststellen.
Ob der Unterschied zwischen 6850 und 6870 auffällt hast zum Glück nicht du, sondern der Käufer zu entscheiden. Den nichts anderes ist dieser Wundertreiber, ein Treiber der mit Cheaterei die Balken verlängert und der einzige Sinn der 6870 liegt nunmal in der höheren Leistung im Vergleich zur 6870.
Glückwunsch, du hast gerade jeglichen schnelleren Modellen die Existenzberechtigung entzogen.


Unglaublich welche Freiheit AMD gewährt wird. Hoffentlich gibts bald 16xAF, 4xSGSSAA Benches auf AMD Seite gegen 16xAF, 4xTAA Benches auf nvidia Seite.
Das wäre eine Strafe, aber nicht das man nachwie vor mit den Qualität von vor x Generationen testet. Also eine nicht Besserstellung ist bereits Grund zur Kritik. AMD legt den Standard vor.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Desweiteren habe ich sehr arg die Vermutung, dass zwischen Barts Q und Barts HQ überhaupt kein Unterschied besteht.
Das Gefühl habe ich schon länger. ;) Das würde erst recht meine Befürchtung bestätigen, dass Barts HQ bis auf weniger FPS praktisch nichts bringt gegenüber Barts Q. Auf jeden Fall danke für deine Mühe.


Unyu schrieb:
Du gibts zu, das der Standard schlechter geworden ist.
War das jetzt eine Frage oder eine Feststellung? Und lies dir erstmal alles durch. Dann sollte klar sein, dass Barts default nicht per se schlechter ist als Cypress default.

Unyu schrieb:
10.10 Standard istschneller, hast du gerade zugegeben
Zur Performance zwischen den Treibereinstellungen habe ich gar nichts gesagt.

Unyu schrieb:
der einzige Sinn der 6870 liegt nunmal in der höheren Leistung im Vergleich zur 6870
Klar, macht Sinn. So wie der Rest deines Käses. :rolleyes:
 
Zuletzt bearbeitet:
@Unyu
Hast du dich genauso für die Kunden eingesetzt als nvidia in ihren Treiber beschissen hat? Die Frage ist ernst gemeint, weil du mir hier schon beim stillen mitlesen aufgefallen bist der sehr contra der einen und sehr pro der anderen Seite eingestellt bist. So kommt es zumindestens rüber.
 
@Schaffe89
G4 ist leider an vielen Stellen unbrauchbar als AF Vergleich, weil der Content von selber schon bandet.
 
Nun wird es für mich schwierig..

Nach den Videos, den ganzen CB Tests dir ich bisher durch habe,
stehen bei mir mehrere Fragezeichen ??

Ist die 6850 / 6870, nun punktuell besser als die GTX 460 Beispiel: Geforce GTX460 AMP!

oder lässt die 6850 / 70 die 460 wirklich alt aussehen ??

Performancerating: Die 68er ist meines erachtens dort klar vorn, allerdings der letzte CB Qualität Test, macht mich nachdenklich ?

*Need Help*
 
Wenn bestimmte Games auf Grün oder Rot einfach besser laufen, weil da diverse Ingenieure ein Techtelmechtel mit Entwickler XY hatten, kräht da auch kein Hahn nach
und das beeiträchtigt letztendlich auch die Vergleichbarkeit.
Das ist bei der Bildqualität nicht anders.

Was ich CB in diesem Fall anrechne, ist, dass sie uns detailliert auffschlüsseln, warum sie wie testen werden um eine gewisse Vergleichbarkeit herzustellen.
Ich gehe allerdings nicht so weit zu sagen, AMD schummelt, Nvidia verschleiert viel oder trickst hier und dort... Es sind unterschiedliche Produkte!
Wir, bzw stellv. für uns CB, versuchen zu Vergleichen um das für uns am besten geeignete Produkt zu finden.

Um bei den Autovergleichen zu bleiben (ich sag ma im Vorfeld, dass ich mich da nich so auskenn :D):

Hab ich ne zichtrilliarden PS Musclecar in der Garage wird das n Grund haben. Genauso muss ich es meinem Nachbarn aba dann lassen, wenn er nur darüber schmunzeln kann weil sein Mazda MX5 (oda RX5? :p), die geringere Leistung weitaus effizienter auf die Straße bringt.

Ich erwarte garnicht, dass AMD mir jegliche Entwicklungsentscheidung erläutert und erklärt. Ich bin informiert, weiß was ich kriege und brauch und entscheide mich entsprechend bewusst.

In meinem Lieblingsnusseis vermute ich seid geraumer Zeit eine Spur Erdbeeraroma. Nicht, weil ich das schmecke, sondern weil mir einer erzählt hat, das wäre jetzt da drin... Für mich als Verbrauchen wirds wohl passen. Da gibt es doch Institute, die aufpassen, dass mir da nichts passiert?
 
PalimPalim
Was meinst du?Meinst du G70? Wenn ja, G70 wurde natürlich zurecht mit HQ getestet, drum haben wir seit 2006 das G80 AF.
AMDs AF wurdemit diesem Artikel nicht wirklich kritisiert, man testet nachwie vor ungefähr mit der alten Qualität, einen G80 Erfolg sehe ich noch nicht kommen. Ich setze mich übrigens für mich ein, als Kunde ist mir eine Steigerung wichtig, eine konstante Qualität wie von CB erreicht ist kein Grund zum feiern, sondern das Minimum.

Schaffe89
Ton brauchts nicht unbedingt, am Anfang schneller loslaufen und die Youtube ist für Qualität auch nicht so berühmt. Kannst du es in Zukunft nicht woanders hochladen?
 
Zuletzt bearbeitet:
Unyu schrieb:
10.10 Standard ist schneller, hast du gerade zugegeben, also opfert AMD Qualität zugunsten der eigenen Stellung in Benchmarks.

Das ist ne Behauptung die hier aufgewurfen aber kein Beweis gebracht wurde.

In den Benchmarks haette man 9.10 gegen 10.10 antreten lassen muessen um diese Behauptung beweisen zu koennen. Das hat CB aber unterlassen.
 
@Pommes
Wenn du das Flimmern nicht siehst bzw. auf deiner 88GTS nie HQ AF verwendest hast, ist es egal. Ansonsten ist es eher was für einige Fetischisten.

edit:

@Schaff89

Mach die Videos kürzer(2-3 s reichen mehr als aus ) und auf halbe Auflösung
Dann lade sie auf multiupload hoch
 
Ich sag jetzt auch mal was.

Ich finde das Nvidia und AMD alle beide doof sind und noch mit Mittelalter Karten experimentieren.

Normalerweise sollte es schon auf Nanobots basierende Chips geben und das in Verbindung mit einer Graka, HALLELUJA.
 
Airbag schrieb:
G4 ist leider an vielen Stellen unbrauchbar als AF Vergleich, weil der Content von selber schon bandet.

Ob Banding oder nicht, ist ja jetzt auch völlig egal.
Auf jeden Fall ist ein starker Unterschied in dieser Sequenz zwischen AMD und Nvidia festzustellen.
Warum das nicht geeignet sein soll, erschließt sich mir nicht und Banding hab ich ja auch nicht untersucht, sondern das Flimmern.
Mich würde interessieren woher es nun herrührt.
Sampleeinsparungen oder nicht?

Mach die Videos kürzer(2-3 s reichen mehr als aus )

Ja, gute idee.
Wollte eben durch die Länge etwas mehr bieten.
Zu kurze Videos sind halbherzig.^^
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben