News Weitere Hinweise zur Leistung der HD 4870 X2

Pantherfibel schrieb:
...
Auch wenn das nur theoretischer Natur ist, aber wie PC-süchtig muss man sein um seinen Urlaub o. ä. gegen eine Grafikkarte einzutauschen?

MfG Pantherfibel
versuch jemanden zu finden, der für eine graka, kurz vor offiziellen release, über 800€, gerüchteweise, auf den tisch legt und du weisst es
scnr ;)
 
@Pantherfibel: wieso muss man auf seinen urlaub verzichten? leute die geld für luxusgeräte haben können sich meist beides leisten^^ und von der graka hat man definitiv länger was als vom urlaub ;)
mir fallen da weit teurere hobbys ein als computer... allem vorran autos... da meckert auch keiner wenn sich wer nen spoiler oder schwellersatz oder alufelgen leistet. dem einen isses das wert, dem anderen nicht.
ich werd mir auch niemals ne graka für >150,- holen (notebook mal ausgenommen weil da schlecht is mit nachrüsten) aber ich gönne es denjenigen, dies sich erlauben können...
 
urbanplanet schrieb:

Naja, Ouelle: Fudzilla...
Und selbst wenn das stimmt hoffe ich das die 1,2 TF nicht nur theoretisch was bringen....
wenn die 4850 damit 1,0TF hätte, wäre sie so schnell, wie es von der 4870 erwartet wurde...

aber Fudzilla als Quelle...

Egal, seitdem ich meine 3870x2 zurückgeschickt habe (Microruckler, 14Tage Wiederruf genutzt), warte ich auf die neuen Karten, egal welche,
etwa 800€ und mit Physikchip :D
Ich bin nie wieder so blöd und kauf ne Karte über 200€.....da ist ja der Wertverlust von einem Auto im ersten Jahr geringer :D
nur bei der G80 hätten sich 400€ gelohnt fast halbwegs und das auch nur weil nVidia zu faul und Ati zu blöd war, die Karte zu schlagen...
 
@Pantherfibel: wieso muss man auf seinen urlaub verzichten? leute die geld für luxusgeräte haben können sich meist beides leisten^^ und von der graka hat man definitiv länger was als vom urlaub

Weil quotenkiller das Beispiel gebracht hat, aber wahrscheinlich haste in den meisten Fällen recht.


Kann ich mir nicht so recht vorstellen, weil dann das Verhältnis Transistor zu Shader doch ganz anders als beim R600 ist. Da halte ich die 50% mehr Shader (und Transistoren) für wahrscheinlicher, weil es sich doch einfacher realisieren lassen müsste.
Geisterte nicht auch schon vor Monaten das Gerücht durch das Netz, dass AMD an einem Projekt namens "Thunder" arbeite, wo die Graka eben diese 800 Shader haben soll?
 
RV770 verfügt über 800 Streaming-Prozessoren und durchbricht die 1.200-GFlop-Marke?
http://www.pcgameshardware.de/aid,6...essoren_und_durchbricht_die_1200-GFlop-Marke/

Die Hinweise verdichten sich, leider sind GFlops nicht 1:1 auf die Leistung in Spielen umsetzbar. Es wird tatsächlich spannender als ich erwartet habe.

Allerdings währe es für ATI ein Quantensprung von der Leistung der 3870 auf die Leistung der GTX 280 zu kommen und somit unwahrscheinlich.

Naja nach den legendären GPUs Radeon 9700Pro -> Geforce 8800GTX -> 4870? vielleicht ist jetzt ATI wieder an der Reihe für ein Wunder...

MfG Kasmo
 
Die 800SPs scheinen wohl zu stimmen, bleibt die Frage, wie stark eine RV770 SP im Vergleich zu einer RV670 SP ist und wie gut man diese auslasten kann.
Gibt ja noch mehr mehr als die reine arithmetische Leistung.

Wieviele TMUs gibts? 20? 40? ...
Was schaffen die ROPs?

Btw es sind jetzt ~ 276mm² -> 957 Millionen Transistoren. http://forum.beyond3d.com/showpost.php?p=1172621&postcount=2893
Gar nicht mal sooo klein. ;)
 
also ich hätte nichts gegen eine neue "Radeon 9700Pro" einzuwenden ;) Aber wird wahrscheinlich nicht passieren.
 
hm, dann scheint des alles doch möglich zu sein...meine güte,jeden tage neue infos, was am ende war ist...


gruß
 
Orbmu2k schrieb:
Also laut The Inquirer hatte der G200b schon sein Tape-Out und ist somit gar nicht mehr so weit weg.
Wobei zwischen Tape-Out und Release ca. ein halbes Jahr liegt. RV770 hatte sein Tape-Out zB Ende vergangenen Jahres. Ende Q2 diesen Jahres sollen nun die ersten Modelle erscheinen. Ich würde daher auch vermuten, G200b kommt nicht vor Q4, Tendenz November/Dezember. Wobei wohl vieles davon abhängen wird, wird schnell und unproblematisch die Transition auf 55nm erfolgt. Aber da kann man mit dem G92b vermutlich schon gut vorarbeiten.
 
aber seit der 7900GTX hat ATI nichts mehr zu bieten

Die Radeon 1950xtx stampft eine 7900GTX in Sachen Leistung und Bildqualitaet in den Boden ! ATI war da durchaus in der Lage zu Antworten.

Solche Saetze lassen mich an deiner 20 Jaehrigen Erfahrung zweifeln ! Das du ein Nvidia Fanboy bist ham wir aber alle schon kapiert.

noch son affengeiler Satz

aber auch der Amateur sieht dann die BIOS meldung und andere Sachen die die Echtheit bestatigen

mfg
 
Zuletzt bearbeitet:
BullRun schrieb:
#66
In Vantage ist sie mehr als doppelt so schnell und laeuft ca 10 Grad kuehler und somit auch ruhiger.Hab eh keine Garantie, deswegen noch heute Kuehler runter ,Speicher checken und wenigstens auf 8800gtx Taktniveau bringen.Spaetestens das und ein fertiger Treiber laesst jegliche Konkurrenz weit hinter sich,garantiert!


Noch was dazu: Hast schonmal gesehen, wie das aussieht, wenn das Bios eine Karte noch nicht unterstützt.... Da geht nicht mehr als 4Bit Farbtiefe und 800x600 Pixel, 3dmark brauchst gar nicht versuchen zu starten...

Und für das Gigabyte 965P-DS3 gibts garanitert noch keine Bios Version, die die GTX 280 unterstützt..

@FaZe:
Ati hat sowieso fast immer die bessere Bildqualität, ich glaube seit der 9700 hat sich daran nichts geändert...
Die R670 macht ja auch ein qualitativ besseres Bild als die G92....und da nVidia nur auf Leistung setzt und bei der Baugröße der GT200, glaub ich nicht das sich das ändert...

Allerdings weiß ich nicht, ob das Auge den Unterschied tatsächlich wahrnehmen kann...
 
Zuletzt bearbeitet:
Sheeep schrieb:
Ati hat sowieso fast immer die bessere Bildqualität, ich glaube seit der 9700 hat sich daran nichts geändert...
Mal für dich ein paar Links, da scheint eine kleine Wissenslücke zu existieren. :)

Blicken wir zurück: R200 bot Filtertricks
Aber lassen wir das weg, du schriebst ja "9700". :)

R300 mit Filtertricks, NV30 mit unereicht guter TexturFilterqualität:

https://www.computerbase.de/2004-05/bericht-versteckspiele-bei-atis-texturfilter/
https://www.computerbase.de/2002-11/test-connect3d-radeon9700-pro/5/#abschnitt_fsaa_und_af
http://alt.3dcenter.org/artikel/2003/11-21_a.php

R420, die Trickswerei geht weiter, Nvidia folgt dem Beispiel des R300 mit NV40:

https://www.computerbase.de/2004-05/bericht-radeon-x800-und-die-texturen/
https://www.computerbase.de/2005-04/bericht-af-optimierungen-unter-der-lupe/
http://alt.3dcenter.org/artikel/kolumne_optimierungen/

Einführung von TAA/AAA, Nvidia bot das Feature zuerst und auch für ältere Karten:

http://alt.3dcenter.org/artikel/2005/10-04_a.php

Nvidias Tiefpunkt, der G70:
https://www.computerbase.de/2005-08/nvidia-g70-texturen/4/#abschnitt_treiberspielerreien
http://alt.3dcenter.org/artikel/g70_flimmern/
http://alt.3dcenter.org/artikel/neue_filtertricks/

Aufwärts bei ATi, der R520:
https://www.computerbase.de/2005-12/bericht-radeon-x1000-vs-geforce-7/9/#abschnitt_bildqualitaet

Quantensprung bei Nvidia, G80:
http://alt.3dcenter.org/artikel/geforce_8800_gtx/index3.php
https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/7/#abschnitt_af_kontrolliert

R600, aktuelle Situation, schlechter als G80:

http://alt.3dcenter.org/artikel/radeon_hd_2900_xt/index7.php
https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/7/#abschnitt_af_kontrolliert

 
Zuletzt bearbeitet: (;))
Hast Du da die selben Texte gelesen wie ich? Diese Pauschalisierungen und Übertreibungen sind echt nicht mehr feierlich.

Wie rechtfertigst Du "weitaus schlechter als G80", in Anbetracht dieser Abschnitte:

3dcenter:

Den Nutzen von CSAA und CFAA erkennt man in diesem Fall sofort: Die beiden neuen Verfahren von ATI und nVidia liefern hier ein besser abgestuftes Bild. Im direkten Vergleich scheint das Custom-Filter-Verfahren von ATI jedoch die weicheren Übergänge zu erzeugen.

Gegenüber dem bereits bekannten Screenshot mit 8x Multisampling kann sich nVidias Coverage Sample Anti-Aliasing sichtbar absetzen. Den großen Pokal darf sich aber definitiv ATI abholen: Was hier im Zusammenspiel von acht Samples und dem Custom-Filter erreicht wird, ist bisher einfach ungeschlagen. Die Abstufungen sind schon fast fließend und dürften, mehr als alle anderen verfügbaren Modi, für ein sichtbar besseres Bild sorgen.

ATIs Lösung beim R600-Chip arbeitet prinzipiell nach dem gleichen Prinzip: Hässliches Flimmern soll verhindert werden und die Treppenstufen am besten ganz getilgt. Beim R600-Chip kommt ein Verfahren namens "EATM" zum Einsatz, welches über die Windows-Registry auch schon mit früheren ATI-Chips nutzbar ist. Egal wie die Methode heißt, das Ziel wird auf jeden Fall erreicht: Die Bildqualität steigt sichtlich an, legt gegenüber dem Verfahren von nVidia sogar noch eins drauf. Dem Spieler erscheinen Baumkronen und Blätteransammlungen generell als fülliger und dichter.

CB:

In der Kategorie Bildqualität kann die Radeon HD 2900 XT aufholen. Die Karte tut sich aber schwer, gegen die G80-GPU von nVidia zu bestehen. Wirklich gut gelungen ist das acht-fache Anti-Aliasing, das unserer Ansicht nach qualitativ über dem 8xQAA von nVidia liegt. Der ATi-Algorithmus zeigt quasi keine Schwächen und glättet jedes Spiel bei jedem Winkel mit einer beinahe schon perfekten Qualität. Sehr gut!

Auf ganzer Linie zurückstecken muss ATi bei der anisotropen Filterung, die auf der GeForce 8800 tadellos arbeitet. Bei maximalen Treibereinstellungen flimmert das Bild auf dem R600 immer noch vor sich her, wenn auch nicht mehr ganz so extrem wie auf der Radeon X1950 XTX. Die Bildruhe einer GeForce 8800 erreicht man aber nicht annähernd. Darüber hinaus kann die nVidia-Karte mit einer besseren Präzision und einer leicht besseren Winkelunabhängigkeit punkten, wobei man letzteres aber nur in seltenen Fällen wird erkennen können. Die Standardeinstellungen der Treiber sind in etwa gleichwertig. Bei der Radeon HD 2900 XT flimmern vermehrt die Texturen, auf der GeForce 8800 fällt der brilineare Filter unangenehm auf.
 
Zuletzt bearbeitet:
Lübke schrieb:
das mit der bildqualität ist so nicht richtig.
ati 9k vs gf5 = ati besser
ati x vs gf6 = nv besser
ati x1k vs gf7 = ati besser
ati hd2k vs gf8 = nv besser
aktuell gleichstand. beide setzen wohl abwechselnd auf leistung und aus qualität...

OK, danke für die Info ;)

gut das ich oben "ich glaube" dazugeschrieben habe.....:lol:
 
Schön du bemängelst nur das Wörtchen "weitaus"? :) [dann stimmt ja der Rest ....] Ich geh jetzt in die Ecke und schäme mich. :(

3dc
Wir Listen Obenstehend Von Den Cfaa-modi Aber Nur Die Höchste Variante Mit "edge Detection" Auf, Da Die Darunterliegenden Varianten Mit "narrow Tent" (benutzt Aus Den Vier Umliegenden Pixeln Jeweils Ein Sample) Und "wide Tent" (benutzt Aus Den Vier Umliegenden Pixeln Jeweils Zwei Samples) In Dem Sinne Blurfilter (weichzeichner ähnlich Nvidias Quincunx) Sind, Was Nicht Dem Grundgedanken Von Anti-aliasing Entspricht.
Bei der Radeon HD 2x00 Serie hat ATI dieses Prinzip im Grundsatz beibehalten, allerdings zusätzlich noch ein wenig an der Filterqualität (in der LOD-Berechnung) geschraubt, womit insbesondere die höheren AF-Modi doch noch ein wenig besser aussehen.
Cb
bei A.i. Off Fallen Die Bugwellen Bei Den übergängen Der Mipmaps Weg, Der Flimmeranteil Bleibt Aber Immer Noch Bestehen.
Deaktiviert Man Nun Auf Beiden Grafikkarten Sämtliche Optimierungen Des Anisotropen Filters, Dreht Der G8x Regelrechte Kreise Um Die Konkurrenz.
Ist das keine Übertreibung?

btw. Diese Koppelung von AI an die abschaltbaren Optimierungen ist imho nicht so schön.
 
Zuletzt bearbeitet:
Mir geht's doch nur darum, dass hier einigermaßen differenziert wird. Was konkret besser/schlechter ist, kann man ja kurz sagen, oder nicht? ;) Das größte Problem bei diesen Diskussionen bildet den Umstand, wie man hier ständig gegenseitig mit Superlativen und Übertreibungen um sich wirft, um dem eigenen Argument zusätzliche künstliche Gewichtung beizumessen. Und das nervt, nicht nur die letzten sieben Seiten in diesem Thread, sondern in fast allen Diskussionen, die um die zu erwartenden Top-Karten kreisen, gewaltig. Und das betrifft nicht nur eine Seite!

Ich erwarte auch von allen bitte, dass die eigene Meinung bzw. Sichtweise nicht von der Überzeugung begleitet wird, den Stein der Weisen damit gefunden zu haben!
 
Zuletzt bearbeitet:
zur Bildqulität muss sich jeder sein eigenes bild machen. i habe 2 g92 hier, und meine R680... Dass das AF der G80+ besser und nicht so leistungsfressend wie bei den R600+ pendanten ist, ist klar. aber der unterschied von der bildqualität fällt in spielen nur den wenigsten auf. In diesem Punkt muss i ausnahmsweise Unyu recht geben,da ist Nvidia vorne.

Was aber die AA modi und die Bildqualität von AA angeht sitmme ich Unyu nicht zu. Er propagiert die nicht zu erreichende qualität von Nvidias AA, was ich nicht teile. ich persönlich finde die von ATI sogar besser, vor allem weicher. Ohne bildverbesserung ist sogar nachweislich das rote bild besser als das grüne^^, vor allem werden keine details weggeblendet. Filtertricks hin oder her,lieber filtertricks und alle details, als reduzierte details (dafür gemogelt mehr leistung), eckiges AA und perfektes AF.

Aber davon muss sich jedoch jeder selber ein bild machen, wobei die meisten wohl keinen unterschied merken werden (wobei 16xWide Tend mit 32 samples schon was für sich hat, au wenns zu weich wird^^).

also, back to topic^^


gruß
 
Zurück
Oben