Test GTX 1080 Ti vs. RX Vega 64 (2024): Wie steht es um „fine wine“ im Duell Pascal gegen Vega?

Die Radeon VII fehlt, die hatte mit dem Speicher definitiv kein Problem und die Rechenleistung war 30% höher als bei der Vega64.
 
Mittelmäßiger Artikel der die Stärken von Nvidia hochspielt und die Stärken von AMD runterredet oder sogar komplett ignoriert (wie so oft und wie man es gewohnt ist).

Gleichzeitig weiß der Autor nicht ob er Finewine akzeptiert oder nicht akzeptiert, wahlweise vertritt er nach Lust und Laune die Ansichten das Finewine Fakt ist oder eben doch nicht vorhanden ist.

Nvidia hat jetzt mehr oder weniger ein Monopol (90% des Marktes). Ein Grund dafür sind Autoren die Nvidia stark favorisieren und AMD entweder unfair behandeln oder noch schlimmer, ignorieren. Sie stimmen damit Leuten zu die so tun als wäre Nvidia das einzige was es gäbe.

AMDs Schwäche ist eher das Marketing, die Schwäche von Tech-Autoren ist es ignorant zu sein, trotz des Marketings.
 
DrSmile schrieb:
Du weißt aber schon, dass 2K entweder 1920 * 1080p oder eben 2048 * 1080 meint, was eben etwas mehr als ca. 2,1 MegaPixel entspricht. Hier wird in 2560 * 1440 gemessen, das sind ca. 3,7 MegaPixel. Das sind also knapp 80 % mehr an Pixeln.

Die 25 fps wären pi mal Daumen in FHD knapp bei 40 - 45 fps. Da ich in einer besonders fordernden Szene in Dog Town messe, kann man in der Regel in 1080p auf der 1080 Ti durchaus 60 erreichen.

Es ist halt alles eine Frage der Szene die man misst und der Auflösung.
 
Hatte leider keine von beiden fand Pascal zur damaligen Zeit ein wirklich gelungenes Produkt, Leistung Pro Watt war hervorragend und die GTX 1060 die ich geholt hatte (vermutlich dank der Konkurrenz von AMD) war auch vom Preis Leistungsverhältnis gut war ja annährend GTX 980 Leistung 980Ti Speicherausbau, ich hatte da wenig zu bemägeln, ebenso passte es die gut in meinen damals doch ziemlich klein diminsioniertes Gehäuse. Das was mir der Test zeigt ist das die VEGA zwar aufgeholt hat aber heute wie die 1080 Ti leider nicht die Leistung bringen um damit aktuelle Titel noch wirklich spielen zu wollen.
 
Donnidonis schrieb:
Ich habe sogar bis „vor kurzem“ meine Vega56 für 4K genutzt. Und ja, das ging auch. Man muss halt auf Mittel spielen.
Ja, hatte ebenfalls 2017 bereits 4K Monitor (sitze immer noch vor der Kiste) und damals auch eine Vega56. War super. Und: Nur weill man einen 4K Bildschirm hat, muss man ja nicht auch in 4k daddeln. Mache ich heute auch nicht, dafür ist die 6700XT häufig zu schwachbrüstig.
 
@eazen: Du solltest evtl. mal drüber nachdenken, ob das Bias, das Du anderen vorwirfst, vllt. eher auf Dich zutrifft.
 
  • Gefällt mir
Reaktionen: Innocience, Fallout667, Quidproquo77 und eine weitere Person
MoinWoll schrieb:
Du solltest evtl. mal drüber nachdenken, ob das Bias, das Du anderen vorwirfst, vllt. eher auf Dich zutrifft.
Also ein Nvidia-Fan-Pandachen bin ich ebenso wenig, wie ein AMD-Fan-Pandachen:

https://www.computerbase.de/forum/t...m-benchmark-ebenbuertig.2197289/post-29448424
-- Anmerkung zum Link: Ich übertreibe an der Stelle mit den Vorwürfen an Nvidia. Es ist Überspitzt, um zu zeigen, dass der Vorwurf des Kopierens schnell auch auf Nvidia anwendbar ist, wenn man es "ganz genau" nimmt. Nvidia hat natürlich nicht kopiert. Man übernimmt Ideen, aber muss sie dennoch selbst umsetzten, mal mit einer besseren, mal einer schlechteren Ausarbeitung.


Ich gehe an die ganze Thematik relativ "emotionslos" heran, ich verstehe meinen Artikel auch eher mal als Weckruf an AMD, dass sie wieder etwas mehr Mut fassen und vorallem auch daran arbeiten, dass die Entwickler ihre Hardware genauso ordentlich unterstützen, wie Nvidia!

Seitdem ich an PCs arbeite, stellt sich sowohl ATi als auch AMD immer selbst ein Bein. Tolle Hardware, aber das Software-Ökosystem und der Entwickler-Support verhindern alles Weitere.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, MoinWoll und Samuelz
1718128459301.png

Haja....
Ich wollte mit meiner Vega 64 Damals CyberPunk zocken...
Auf 5120x1440 Pixel.
Hab vor dem Spiegel stehen charakter erstellend die Einstellungen soweit reudziert das knappe 45 FPS drin waren.
Dann Prolog durch den Club gemacht usw.... im Apartment angekommen und den ersten Schritt vor die Haustüre nach Night City gemacht um den Ripperdoc zu finden...
FPS gedropt auf unter 30!
Hab ich keine 15 Minuten ausgehalten. StegPC hatte zum glück eine 3090 ab Lager Lieferbar in Winterthur. Also ab ins Auto und 1.5h Fahrtweg um neue Graka zu holen.
Danach Cyberpunk durchgespielt xD
 
  • Gefällt mir
Reaktionen: Javeran
braugold schrieb:
Kannst du vielleicht noch was zu Taktverhalten, Temperaturen und Stromverbrauch (evtl. auch als Grafik) im Benchmark ergänzen?
Temperaturen, Stromverbrauch kommen erst, wenn ich diese zuverlässiger messen kann. Bestellung für die Tools sind schon raus. :)
 
  • Gefällt mir
Reaktionen: xXDariusXx, SaschaHa und Haldi
eazen schrieb:
Mittelmäßiger Artikel der die Stärken von Nvidia hochspielt und die Stärken von AMD runterredet oder sogar komplett ignoriert (wie so oft und wie man es gewohnt ist).
Eigentlich ist doch das Gegenteil der Fall. Vega, ein GPU Chip der immer als ineffizient und kaputt galt (primitive Shader), kommt auf seine alten Tage manchmal an die teurere GPU ran.
eazen schrieb:
Gleichzeitig weiß der Autor nicht ob er Finewine akzeptiert oder nicht akzeptiert, wahlweise vertritt er nach Lust und Laune die Ansichten das Finewine Fakt ist oder eben doch nicht vorhanden ist.
Aus welcher Perspektive man es eben sehen will.
eazen schrieb:
Nvidia hat jetzt mehr oder weniger ein Monopol (90% des Marktes). Ein Grund dafür sind Autoren die Nvidia stark favorisieren...
Da ist AMD schon selbst für verantwortlich. Es rumort ja nicht nur bei der Hardware, sondern vor allem bei der Software und dem Erzielen von design-wins im Notebooksegment (GPU), bzw. dem Abschließen von Verträgen. (Das ist jetzt aber geraten)
 
Ich hatte beide Karten ungefähr gleich lang im selben PC.
2700X, 64GB DDR4 3200CL16, MSI B450M Mortar.

Und für mich waren beide Karten auf Augenhöhe und mit keiner gab es auch nur ein Problem.

Ich hatte zuerst die Vega64, dann wollte ich interessehalber / basteldrangmäßig die 1080TI und fand sogar jemanden der einfach tauschte.

Am Ende habe ich dann -der genaue Zeitrahmen ist mir entfallen- die 1080Ti durch meine Custom Wasserkühlung gekillt.

Ein Fitting war undicht und es hat alle 20Minuten einen mini Tropfen auf die Backplate der 1080Ti getropft.

Hat dann irgendwann "Puff" gemacht.

Genau in dem Moment als die 6900XT hier bei 1000€ war. ✨ :pcangry:
 
  • Gefällt mir
Reaktionen: xXDariusXx
Quidproquo77 schrieb:
Aus welcher Perspektive man es eben sehen will.
Vega ist halt durchaus gut gealtert, nur die großen Versprechen konnte Vega nicht halten.

Aber jetzt steht erst mal was ganz anders an dann. Da ist die Community dann auch gefragt. Hrhr. Bin da schon ganz heiß drauf.
 
  • Gefällt mir
Reaktionen: Quidproquo77
DevPandi schrieb:
Vega ist halt durchaus gut gealtert, nur die großen Versprechen konnte Vega nicht halten.
1. was waren denn die großen Versprechen?
2. war immer ne komische Generation, fühlte sich mehr wie Workstation Karte an, auch die Namesgebung davor gabs rx 480 danach rx 5700 was sollte dieses komische vega 64, sehr komisches Ding. fühlte sich bisschen wie was war das HD 4700 ne komische Testkarte für 40nm damals aber mit 128bit Speicheranschluss.
 
Habe zufällig bei mir die kleinen Schwestern Vega56 und GTX1070 liegen, die beide ihre Stärken haben.

Die V56 lässt sich extrem gut OCen, mehr als 10% und hält so deutlich bessere 1% Werte, besser als eine stock 1070 ti. Trotzdem benutze ich heute nur noch die 1070 im 2. Rechner weil sie max 140W frisst. Auf 1440p Monitor kann sie zwar leider nicht mehr die 30 fps1% halten, trotz OC und FSR (AMD tech ironischer weise) aber fürs home office ist Effizienz > Leistung, was ich bzgl Ageing wohl falsch eingeschätzt habe.
 
Hmm ich habe Far Cry 6 auf einer Vega 56 mit 8 Gb und denn Ultra Texturen gespielt und das konnte NICHT einmal eine 1080Ti mit 11 Gb aber ihr habt es geschafft das der Vega 64 der Vram ausgeht !?!!?
Sorry setzen 6 , wenn ich sowas Teste habe ich ein System mit 64 Gb und HBCC und dann reicht der Speicher bei der Vega mindestens genauso weit !
Dazu war VEGA Speziell , mit Standard einstellungen ist die Karte Langsam Heiss und ein Stromfresser, wenn man aber Spannung weg nimmt taktet sie in denn Himmel und verbraucht dabei nicht mal mehr zum T eil sogar weniger .
Ich hatte nur die 0815 MSI Airboost , von der Karte praktisch im Referenz Design habe ich nicht viel erwartet aber wenn man Spannung weggenommen hat , hat sie ihre 1622 Mhz voll erreicht ohne Mucken und hat dabei jede 1070 zerlegt , aber hey ihr beschreibt kaum die Bedingungen eures Tests , also wars wohl 0815 und so für mich also gar nix wert ...
 
GreatEvil schrieb:
Allein die Preisklasse der GTX 1080 Ti zeigt, das es hier wieder nur um redaktionelles AMD Bashing geht.
Ergebnis des Tests: Die AMD-Karte ist signifikant besser gealtert als die NVIDIA-Karte = AMD-Bashing. :confused_alt:

Das grenzt ja schon an Verfolgungswahn...
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Fallout667 und Quidproquo77
Quidproquo77 schrieb:
Da ist AMD schon selbst für verantwortlich. Es rumort ja nicht nur bei der Hardware, sondern vor allem bei der Software und dem Erzielen von design-wins im Notebooksegment (GPU), bzw. dem Abschließen von Verträgen. (Das ist jetzt aber geraten)
Davon abgesehen, dass AMD immer wieder nur 2. Wahl war wegenihrer Schwächen, ist es selbst wenn sie besser sind immer noch so. Das hat sich einfach in den Köpfen festgesaugt. Man hätte ja meinen können, dass sie nach dem Release von RDNA 2 einiges an Boden gut machen können, gelang aber nicht, trotz der LEistung auf Augenhöhe und in Sachen Effizienz überlegen, griffen die Leute lieber zu Ampere.
Das ist so in den Köpfen vieler gespeichert... Es reicht nicht nur ein gutes Produkt auf den Markt zu werfen, man muss die Leute auch davon überzeugen und das braucht einen langen Atem, siehe auch Zen... Da kämpfen die schon nun in 5. Generation gegen den Platzhirsch Intel. Rein von dem was die CPUs können, müsste man meinen das sie 90% Marketshare hätten, ist aber lang noch nicht so...
 
Zurück
Oben