Test GeForce RTX 2080 Super im Test: In allen Belangen gut, aber nicht super

Oneplusfan schrieb:
Wie kann der Vollausbau billiger sein als der beschnittene Chip? Das einzige, was billiger sein könnte, wäre die Fertigung an sich, aber die ist dann automatisch um den gleichen Betrag auch beim Beschnitt billiger.

Beschneiden bringt Nvidia erstmal kein Geld es ist neutral, aber was billiger geworden ist, ist der Speicher seit dem Release der Non-Super varianten sind die Ram Preise deutlich gesunken, dachte noch der Lüfter wäre kürzer in dem Post, das war aber ein Fehler von mir, aber der Ram bleibt.

Oneplusfan schrieb:
Wartet doch erst mal, bis es flächendeckend vergleichbare Modelle gibt, bevor ihr hier eine Preiserhöhung vorwerft. Die findet nämlich, wenn man FE mit FE vergleicht, nur in euren Köpfen statt.

Naja ich vergleiche natürlich den Status Quo, außerdem sollten doch Custom Modelle teurer sein, oder ist bei Nvidia da die Gegenteilwelt von AMD?

Wenn ich die Preisnachlässe in der Zukunft jetzt mit bewerte, darf ich Benchmarks von AMD karten ja auch nimmer ernst nehmen weil 3 Monate später vielleicht die Treiber besser sind.
 
PHuV schrieb:
Ernsthaft jetzt? Trollst Du jetzt?
Zumindest hast du schon mal erkannt, dass ich dich in dem Fall trolle und du hättest dich sogar jetzt nur mit einem blauen Auge aus der Affäre ziehen können, in dem du einfach nichts weiter dazu schreibst und ja ich breche gerade mit meiner eigenen Aussage, aber so sind wir Menschen halt.

Auch jetzt kommt von dir wieder nur viel heiße Luft, aber von deiner Seite aus kommen keinen weiteren inhaltlichen Argumente bis auf eines und da bist du natürlich genau in die Falle getappt die ich dir gestellt habe ... und beweist damit, dass du inhaltlich nicht wirklich argumentieren kannst, sondern primär nur Behauptungen aufstellst.

PHuV schrieb:
Also, wie war das nochmals mit meinen angeblich mangelnden Text und Leseverständnis?
Du hast gerade nur erneut bewiesen, dass du kein wirkliches Textverständnis hast und dass du auch nicht wirklich argumentieren kannst, denn im Endeffekt hast du nun genau das gemacht, was viele Menschen tun, die von sich und ihrem Wissen absolut selbst überzeugt sind und sich für klüger als der ganze Rest halten: Statt wirklich mal Fakten als auch gute Argumente zu liefern, stürzt du dich auf einen inhaltlichen Schwachpunkt der Argumentation und interpretierst ein Wort so, wie man es zwar interpretieren kann, aber nicht muss. Denn "Oftmals" bedeutet nur, dass AMD in dem Fall mehrmals gewinnt, aber es besagt nicht, dass sie eben "häufiger" gewinnen im direkten Vergleich. Zudem hatte ich speziell nur die 290 im Kopf gehabt, du hast es dann aber erweitert, hast aber den Rest meines Textes ausgeblendet und damit die von mir getroffene Grundaussage: Welchen Faktoren wollen wir für die Bewertung denn anlegen und worauf wollen wir uns einigen. Ich habe dir in dem Zusammenhang gesagt, dass ich mich gerne auf Leistung als auch Effizienz einigen möchte, da die anderen Faktoren von zu vielen anderen Sachen abhängen.

Glückwunsch, du hast die inhaltliche Schwachstelle in meinem zweiten Beitrag gefunden, hast aber Abseits davon wieder keine wirklichen Argumente gebracht geschweige denn belegt, dass deine Meinung Fakt ist.

Dein Versuch in allen Ehren, aber alles weitere in deinem Beitrag sind weiterhin nur Behauptungen, die du nicht mit objektiven Fakten untermauerst, sondern eben nur damit, dass du ja das alle Karten gehabt hättest und es bei dir ja so war. Nur weil es bei dir so war, bedeutet das eben nicht, dass es bei allen so ist und gerade bei den GPUs kommt es ja auch auf die Modelle der Hersteller an und wie man sein Lüftungskonzept aufbaut.

Das hier hätte durchaus eine interessante und auch inhaltlich neue Erkenntnisse liefernde Diskussion werden können, wenn du selbst wirklich sachlich gewesen wärst und die anderen nicht pauschal als Fanboys und unsachlich gebrandmarkt hättest, nur weil sie deine Meinung nicht teilen.

Du hast von Anfang an das gemacht, was du allen anderen hier vorgeworfen hast. Wie ich im anderen Beitrag geschrieben habe: Deine Meinung sei dir gegönnt, wenn du es so siehst, dann ist das so. Es gibt aber Menschen, die können es anders sehen und auch diese Menschen haben ihre Gründe dafür, das bedeutet aber nicht, dass sie nicht weniger objektiv sind als du, sondern nur, dass sie bestimmte Fakten anders bewerten. Zudem solltest du dir darüber bewusst werden, dass weder deine Meinung noch die Meinungen von anderen Fakt sind und am Ende steht bei jeder Meinung eine subjektive Bewertung von Argumenten und Fakten und damit das getroffene Urteil.

Ich kann deine Meinung hier am Ende des Tages akzeptieren, da es durchaus Argumente dafür gibt, es gibt aber auch genug Argumente die gegen deine Meinung sprechen, kannst du das auch akzeptieren? Es macht leider eben nicht den Eindruck.

@Jens1882
sehe ich mir deine letzten Beiträge so an, kann man von deiner Seite oft eigentlich nur sinnlose Provokation erwarten, auf die eine oder andere Seite immer wieder Einsteigen. Wie auch an PHuV, bleibt mir da nur zu sagen: Man kann und darf seine eigene Meinung haben, man sollte aber die eigene Meinung niemals mit Fakten gleichsetzen und ebenso sollte man sich darüber bewusst sein, dass andere Meinungen genau so richtig sein können, wie die eigenen.

Andere jedoch als Fanboys zu diffamieren und gleichzeitig selbst in die schlimmsten Klischees abzurutschen macht keinen wirklich guten Eindruck.

@ZeroZerp,

wobei man hier jetzt sagen muss, dass ja nicht nur die "IPC" verglichen wurde, sondern die Architekturen bei gleichen Eckdaten gegenüber gestellt wurden.

Turning mit 2304 Shadern, 256Bit Speicherinterface, GDDR6 7000Mhz, 144TMUs, 64ROPs, 1,5GHz.
vs.
Navi mit 2304 Shadern, 256Bit Speicherinterface, GDDR6 7000MHz, 144 TMUS, 64ROPs, 1,5GHz.

Man hat ja nicht nur die Shader verglichen. ;) Im Endeffekt zeigt dieser Vergleich auch erst mal nur, dass AMD gezielt nun die Schwachstellen der GCN angegangen sind und sie einige ihrer größten Probleme nun langsam gelöst bekommen.

Das Takt nicht unbedingt durch ein Shrink steigt, ebenso dass es heute nicht mehr automatisch bedeutet, dass man Effizienter wird, sollte wohl klar sein. Die Prozesse werden unterschiedlich benannt, haben ihre Eigenschaften usw.

Will man gemein sein, muss man sagen: AMD hat gerade geschnallt, dass einfach revolutionäre neue Shader, ROPs und Co nichts bringen, wenn man sie nicht versorgen kann und statt weiterhin Revolution zu machen, haben sie endlich kapiert, dass sie mal auf Evolution und der damit verbundene Optimierung setzten sollten. Lang genug hat es gedauert, dass sie endlich den Stock aus dem Arsch bekommen. ;)
 
  • Gefällt mir
Reaktionen: Thraker
ZeroStrat schrieb:
@ZeroZerp Meinst du wirklich, dass Signallaufzeiten schon bei 2GHz eine Rolle spielen?
Insofern schon, als dass Du nicht die Nettozeit nehmen darfst, bis die ersten Elektronen quasi zur Ladung/Schaltung eines Transistors geflossen sind, sondern Du ja tatsächlich eine komplett aufgebaute Flanke brauchst, um zu schalten.

Machst Du nun z.B. einen Shrink, hat das den Effekt, dass Du die Signallaufzeiten eben verringern kannst, weil die teile "enger" beieinanderliegen und die Transistoren empfindlicher reagieren, also nicht so viel Ladung brauchen.
Dadurch muss man wiederum nicht so viel Spannung anlegen.

Somit haben Signallaufzeiten also immer einen Einfluss auf die Architektur und derer Möglichkeiten

LG
Zero
 
  • Gefällt mir
Reaktionen: ZeroStrat
ZeroZerp schrieb:
bis die ersten Elektronen quasi zur Ladung/Schaltung eines Transistors angekommen sind

Eine Kleinigkeit: es sind nicht die Elektronen unmittelbar, sondern der Elektronendrift.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Ich glaube, die 2080 S gibt es nur, weil die 2070S der "alten" 2080 zu nahe auf die Pelle gerückt ist. Das größte Potenzial liegt im Speicher, der geht laut Igor wohl richtig gut, mal schauen, was die Board-Partner noch so da raus holen.

Der Vergleich vieler User zur Vorgängergeneration ist sinnlos, weil mit der 2xxx-Reihe statt einem großen Leistungs- ein Featureupdate gebracht wurde, das ist ja nun seit den ersten Tests hinlänglich bekannt. RT in Spielen wird kommen, das ist so sicher wie das Amen in der Kirche. Nicht so schnell und einfach, wie Nvidia das dargestellt und sich gewünscht hat, aber aufzuhalten ist dieser Zug ist nicht mehr. Deswegen war Nvidia die Einführung wichtiger, als die Leistung zu erhöhen.

Aphelon schrieb:
Fakt ist AMD kommt seit Jahren nicht mehr an die Leistungsspitze heran und das ist entsprechend schade, weil man dadurch eben keinen Konkurrenzdruck hat...
Ich denke, dass AMD der Grafiksparte zukünftig mehr Beachtung schenken wird, jetzt, wo man bei Prozessoren aus dem Gröbsten raus ist. Es ist kein Geheimnis, dass die Grafiksparte wegen der Bemühungen um Zen deutlich Federn lassen musste, was R&D anbelangt. Das hat wiederrum einen sehr unzufriedenen Herrn Kaduri hinterlassen, der jetzt bei Intel werkelt.
Wir sollten alle - egal, ob Team Green oder Team Red - hoffen, dass AMDs Bemühungen fruchten, denn wie man bei AMD vs. Intel sehen kann, ist gesunde Konkurrenz das beste für alle.
Ich bin auch sehr gespannt, wann und in welcher Form Intel seinen Hut in den Ring wirft. Dann könnte es mal wieder richtig rund gehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und nciht
ZeroStrat schrieb:
Eine Kleinigkeit: es sind nicht die Elektronen unmittelbar, sondern der Elektronendrift.
Naja- Man muss dazu sagen, dass diese Aussagen generell von mir auch absichtlich sehr unscharf gehalten werden, da wir ja selbst bei der Definition von Signallaufzeit schon eine Vielzahl an Unterscheidungen treffen müssten.

Ich versuch meine Beiträge letzendlich so zu gestalten, dass nicht 90% der Leserschaft gleich aussteigen, sondern vielleicht aus dem einem oder anderen noch eine ungefähre Funktionsweise mitnehmen können ;)

Wenn ich denen mit Elektronendrift komme, werden die Augen verdreht und alles Nachfolgende dazu ignoriert.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, Fraggball und Chaos Theory
Wie kommt es eigentlich dass Navi beim Speicher nix auf die Reihe bekommt während Nvidia hier mal eben 1000MHz drauflegen kann?
Kauft AMD hier den Bodensatz der Speicherchips?
 
  • Gefällt mir
Reaktionen: Cpt.Willard und BastianDeLarge
PHuV schrieb:
Dann bin ich ja froh, daß ich wohl nicht der einzige hier bin, der das so sieht. Keine Frage, jeder übersieht mal was oder macht Fehler, und wenn man sehr viel in verschiedenen Medien liest, verwechselt man sicher auch mal was, so wie ich mit den 7mn. Aber das manche so verzerrt die Realität wahrnehmen erstaunt mich immer wieder. Ich mach doch auch nichts anderes als mir die Balken anschauen und den Text lesen.
sind sogar schon 17 jahre 3dc, einfach mal das halbe leben.
aus neutraler sicht spricht schon lange nichts mehr fuer amd karten ausser sie sind weil sie sich nicht verkauft haben abgeschrieben worden und werden deswegen verramscht.
nur solche produkte mit neueren verkaufsschlager zu vergleichen die gewinn machen sollen damit auch weiterhin geforscht werden kann damit wir nicht auf der stelle stehen bleiben halte ich min. fuer fragwuerdig.

als ob man damals nicht gehofft hatte das polaris oder vega einschlagen und das dem Markt gut tut oder aber aktuell bei navi aber fuer altbacken technik gleich viel oder oft auch mehr zu bezahlen geht nur klar wenn man mindestens auf einen auge blind ist um es mal nett zu umschreiben.

fehler machen oder falsch interpretieren ist ja eine sache aber preissenkungen in preiserhoehung propagandieren oder highend produkte zu haten weil die keine 500 euro kosten so als gaebe es keine guenstigeren karten, als sei nvidia verpflichtet ihre komplette palette harz4 freundlich zu gestalten ist kaum eine diskussion wert. ausserdem sollte man auch bei der warheit bleiben oder einfach zugeben das es eh keine rolle spielt was "diskutiert" wird weil am ende ja eh nvidia boese ist und aufgehalten werden muss, was soll man da diskutieren oder argumentieren?

Hier wird staendig cherry picking betrieben,
kostet eine nvidia karte 10 euro mehr heisst es nvidia ist boese,
rechnet man vor hier deine 590 spielst du 10 stunden die woche 356 tage im jahr jeden monat 4 euro mehr kosten und damit im jahr fast 50 euro aufpreis, spielst du damit 2 jahre sind das 100 euro aufpreis da wird gehatet stromverbrauch zaehlt nicht.
verbrauchen super karten jetzt ein wenig mehr wie vorher wird das selbe argument dagegen verwendet nur so als beispiel.
 
  • Gefällt mir
Reaktionen: PHuV und BastianDeLarge
Auch wenn ich definitiv nicht allen Aussagen von @PHuV zustimme, finde ich es doch... bedenklich, wie er hier angemacht wird.

AMD/RTG wird hier viel Kredit zugesprochen, der seit mindestens 2 Jahren nicht mehr wirklich gerechtfertigt ist.

Die RX480 war vor 3 Jahren eine gute Alternative zur GTX 1060, aber spätestens danach kann man mMn durchaus der Argumentation folgen, dass es bei AMD/RTG mit Consumer Grafikkarten eher bergab, denn bergauf ging. Die RX500er Serie hat zwar ein wenig Leistung auf die ursprüngliche Polaris Generation drauf gelegt, dafür aber nachweislich die Effizienz komplett über Bord geworfen. MMn soweit, dass es durchaus gerechtfertigt ist, von den Karten abzuraten.

Vega war der breiten Masse tendenziell ebenfalls eher nicht zu empfehlen, denn auch dort standen Verbrauch und Leistung nicht wirklich in einem guten Verhältnis. Undervolting/OC darf man getrost aus der Betrachtung ausschließen, denn für 95% der User muss eine Karte im Auslieferungszustand gut funktionieren.

Mit der RX5700(XT) hat man jetzt wieder eine konkurrenzfähige Karte, allerdings landet man damit bei mehr oder weniger gleichem Verbrauch "nur" 5% über bzw. unter der regulären RTX 2070, die es inzwischen seit knapp einem 3/4 Jahr gibt. Das finde ich persönlich wenig revolutionär. Klar, es sind gute Karten, aber trotzdem gilt es die Custom Lösungen abzuwarten, bis davon etwas empfohlen werden kann.

Darüber hinaus kann es mir als Endkunden eigentlich egal sein, ob der Chip in 7 oder 12nm gefertigt wird. Was zählen sind Leistung, Verbrauch, daraus resultierend die Lautstärke und letztendlich der Preis.

Auch die Underdog Karte, die hier ab und an ausgespielt wird, finde ich bedenklich. Natürlich trägt man mit jeder Kaufentscheidung minimal dazu bei den Markt und die Marktmacht der beiden dGPU Spieler zu verschieben, aber als Kunde kann ich nur schlechten Gewissens zu einer schlechteren Karte greifen, nur weil sie vom Underdog kommt.

Bei RX5700(XT) vs. RTX 2060S/2070S sieht es aber glücklicherweise wieder nach einem "fairen Kampf" um Marktanteile aus.

Andererseits kann man es auch so formulieren, dass AMD erst nach 3 Jahren mit der GTX 1080 gleichzieht. Das liest sich dann schon nicht mehr so schön. Das ist aber nur eine absolute Betrachtung von Leistung und Verbraucht, wenn man den Preis mit in die Kalkulation nimmt, sieht es wieder anders aus.

Trotzdem hat AMD darüber nachweislich wenige sinnige Lösungen für Gamer im Angebot.

Und das schon zum Start der RX5700(XT) von einigen Usern der Fokus auf RDNA 2 als Heilsbringer oder immerhin Hoffnungsschimmer für eine noch bessere Effizienz und Raytracing gelegt wird, finde ich ebenfalls bedenklich, auch wenn ich mich da gerne irre.

Das "Waiting Game", dass AMD/RTG, oder eher deren Fans betreiben, finde ich als reiner Konsument inzwischen ermüdend.

Wait for Vega, Navi, RDNA 2, ...

Man sollte momentan einfach mit dem arbeiten, was man hat und das ist bei der RX5700(XT) auf Höhe der Konkurrenz. Nicht mehr und nicht weniger. Jetzt muss es der Markt richten.

PS.: @Balikon
Was den Stromverbrauch angeht, ist die Rechnerei um 5 Euro mehr oder weniger mMn eher eine Nebelkerze, denn ein richtiges Argument. Was aber mMn durchaus ins Gewicht fallen kann, sind die daraus resultierenden Temperaturen, die ich im Gehäuse und damit letztendlich im Zimmer habe. Guckt man sich den Test an, der gerade online gegangen ist, macht es schon einen unterschied, ob die Karte bei 65 Grad gehalten wird, oder bei 85. Zumal man bei den aktuellen Temperaturen dann auch noch wesentlich mehr Spielraum hat, bevor die Karte ins thermische Limit rennt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PHuV, Revan1710 und BastianDeLarge
@ MAsterwine
Ich würde da die AMD HD 5xxx/6xxx hinneinnehmen , auch wenn diese nicht ganz von den fps an die 480/580 rangekommen sind. Trotzdem vom Paket waren sie sehr gut und Nv zu der Zeit dank unnötigen GPu Balast sehr warm und stromhungrig.Theoretisch so ähnlich wie das was AMD mit Polaris und auch davor versucht hat , nämlich im Consumer Gaming Berreich auch GPGPU einzubauen.


Interessant wird es meiner Meinung nach wenn Nv 7nm Karten bringt und AMD mit RDNA2 um die Ecke kommt da dann beide Hersteller die selbe Fertigung nutzen und beide auch RT anbieten werden.
 
Zuletzt bearbeitet:
@PHuV Ich gebe Dir ja in vielem Recht, aber selbst bei einem Mehrverbrauch von 100 Watt komme ich bei 10h die Woche auf 1kW/h mehr Strom/Woche und damit eher auf 1,20 denn 4 Euro pro Monat. Das ist aber nicht der Punkt.

Was ich jetzt eigentlich damit sagen will:
Egal auf welcher Seite (es gab ja auch mal Zeiten, wo AMD effizienter war), diese Stromkosten Gegenrechnerei ist bei den Wattzahlen, die hier anfallen, wirklich müßig. Wenn man nur einmal die Küche kalt lässt, oder einmal warm Duschen ausfallen lässt, hat man mehr Strom gespart, als eine Karte im Jahr mehr verbraucht.

Ich zitiere hier mal Kisser aus einem uralten Vega-Thread:
kisser schrieb:
Die Stromkosten sind in der Tat das dämlichste Argument, dass gegen Vega hervorgebracht wird. Nach wie vor handelt es sich bei Computer-Hardware für den Heimgebrauch NICHT um Großverbraucher.

Meine Kinder wollen mindestens jeden 2. Tag Pizza zum Abendessen, also Ofen an: das sind 6000W x 20-25 Minuten.
Den Energieverbrauch auf 300W runter gerechnet sind das 400 - 500 Minuten, als rund 6,5 - 8,5 Stunden.

Auf die 100W Mehrverbrauch einer VEGA ggü. einer 1080 gerechnet müsste ich dann zwischen 20-25 Stunden auf VEGA zocken und eine Pizza einsparen für den gleichen Energieverbrauch. :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard
v_ossi schrieb:
Auch wenn ich definitiv nicht allen Aussagen von @PHuV zustimme, finde ich es doch... bedenklich, wie er hier angemacht wird.
Für mich besteht das Hauptproblem einfach drin, dass man pauschal erst mal jeden als Fanboy verurteilt hat, der eine andere Meinung hat und ebenso dass er seine Aussagen als "Fakten" verstanden wissen wollte.

Wie heißt es so schön: Wie es in den Wald hineinschallt, so schallt es aus ihm wieder heraus. Etwas diplomatischere Wortwahl, etwas weniger Absolutismus der eigenen Meinung und man hätte durchaus sogar wirklich mal über die den Stand der letzten Jahre sich informativ austauschen können.

v_ossi schrieb:
AMD/RTG wird hier viel Kredit zugesprochen, der seit mindestens 2 Jahren nicht mehr wirklich gerechtfertigt ist.
Kommt halt immer auch drauf an. Ich persönlich bin da relativ emotionslos was die Produkte angeht. AMD als auch ATI haben oft bewiesen, dass sie aus ihren Fehlern lernen können und dass sie aus schlechten Produkte durchaus gestärkt hervor gehen können (nicht müssen).

AMD hat mit Athlon 64 bewiesen, es geht. ATI hat es mit der 9x00-Serie bewiesen, mit der HD 3x00 und 4x00, ebenso mit der 5x00, beide Firmen haben aber ebenso in die Scheiße gegriffen mit dem Bulldozer oder der HD2x00. Und ebenso haben sie gezeigt, dass sie besten Falls nur Mittelmaß abliefern können (Phenom, Polaris, Vega, Fury usw.)

Das Problem ist hier, dass zu viele entweder steif und fest behaupten, dass bei AMD ja eh nichts rum kommt und sie nicht aufholen können, während andere immer denken, dass es beim nächsten Versuch klappen muss.

Navi - und da bin ich ehrlich - hätte auch vollkommen in die Hose gehen können, wenn sie weiterhin versucht hätten durch revolutionäre Ideen ihre Probleme zu lösen. Bedenkt man, dass AMD eigentlich technisch schon Ko war, ist dieses Comeback durchaus beachtenswert, wenn auch nicht überragend.


v_ossi schrieb:
Die RX480 war vor 3 Jahren eine gute Alternative zur GTX 1060, aber spätestens danach kann man mMn durchaus der Argumentation folgen, dass es bei AMD/RTG mit Consumer Grafikkarten eher bergab, denn bergauf ging.
Sein wir ehrlich: Hat man sich bestimmte Eckdaten angesehen, war die RX480 damals zwar durchaus eine Alternative zur GTX1060, aber auch primär eher wegen den 2GB, ansonsten hat eher mehr für die GTX1060 gesprochen.

Das ist aber meine Meinung. ;)

v_ossi schrieb:
Andererseits kann man es auch so formulieren, dass AMD erst nach 3 Jahren mit der GTX 1080 gleichzieht. Das liest sich dann schon nicht mehr so schön. Das ist aber nur eine absolute Betrachtung von Leistung und Verbraucht, wenn man den Preis mit in die Kalkulation nimmt, sieht es wieder anders aus.
Stimmt auch, habe ich aber selbst zum Beispiel auch so zugeben. Vega war - freundlich ausgedrückt - ein Griff ins Klo, was Effizienz angeht und ohne Emotionen dabei: Die GeForce GTX 1080 ist gegenüber der Vega64 das eindeutig bessere Produkt, ebenso ist die GeForce RTX2080 gegenüber der Vega 7 das bessere Produkt.

Ich denke, da muss man nicht streiten.

v_ossi schrieb:
Und das schon zum Start der RX5700(XT) von einigen Usern der Fokus auf RDNA 2 als Heilsbringer oder immerhin Hoffnungsschimmer für eine noch bessere Effizienz und Raytracing gelegt wird, finde ich ebenfalls bedenklich, auch wenn ich mich da gerne irre.
Warum ist das bedenklich? Im Endeffekt ist es eben doch genau das: Ein Hoffungsschimmer. Natürlich könnte RDNA2 auch voll abkacken - ich wills nicht ausschließen - aber was sie mit RDNA geschafft haben, lässt halt ebenso durchaus auch gutes hoffen.

Genau so habe ich auch bei Ampere die Hoffnung, dass diese Karten noch effizienter und schneller werden, warum sollte ich diese Hoffnung nicht haben.

v_ossi schrieb:
Man sollte momentan einfach mit dem arbeiten, was man hat und das ist bei der RX5700(XT) auf Höhe der Konkurrenz. Nicht mehr und nicht weniger. Jetzt muss es der Markt richten.
Ich denke, da sind wir beiden uns einig. Nur dafür muss man eben auch mal emotionslos ran gehen, den "aktuellen" Stand betrachten und alles andere ruhen lassen. Wird aber nicht getan und dass ist es, was mich da auch manchmal tierisch auf die Palme bringt.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Revan1710 und v_ossi
ZeroZerp schrieb:
Naja- Man muss dazu sagen, dass diese Aussagen generell von mir auch absichtlich sehr unscharf gehalten werden, da wir ja selbst bei der Definition von Signallaufzeit schon eine Vielzahl an Unterscheidungen treffen müssten.

Find ich super, dass du die Dinge möglichst einfach erklärst. Ich wollte nur eine kleine Zusatzinfo einstreuen, falls es jemanden interessiert. Der Umstand ist nämlich ziemlich interessant. Die Elektronen selbst bewegen sich sehr langsam (wenige cm/s?!), während sich die Driftwolke mit nahezu Lichtgeschwindigkeit "bewegt".
 
Teralios schrieb:
Für mich besteht das Hauptproblem einfach drin, dass man pauschal erst mal jeden als Fanboy verurteilt hat, der eine andere Meinung hat und ebenso dass er seine Aussagen als "Fakten" verstanden wissen wollte.

Wie heißt es so schön: Wie es in den Wald hineinschallt, so schallt es aus ihm wieder heraus. Etwas diplomatischere Wortwahl, etwas weniger Absolutismus der eigenen Meinung und man hätte durchaus sogar wirklich mal über die den Stand der letzten Jahre sich informativ austauschen können.

Stimmt wohl, bloß erlangt man in einer Diskussion keine Deutungshoheit, indem man sich dann selber dazu "herablässt", aus dem Wald heraus zu schallen.

Darum fand ich sowohl einige der von @PHuV hervorgebrachten Punkte legitim, als auch einige der Gegenargumente von dir und einigen anderen Usern, der Ton war aber -auf beiden Seiten- unnötig scharf und an manchen Stellen fast schon beleidigend.

Teralios schrieb:
Kommt halt immer auch drauf an. Ich persönlich bin da relativ emotionslos was die Produkte angeht.

Zurecht, beide Unternehmen wollen schlussendlich nur dein Bestes, dein Geld. :D

Teralios schrieb:
AMD als auch ATI haben oft bewiesen, dass sie aus ihren Fehlern lernen können und dass sie aus schlechten Produkte durchaus gestärkt hervor gehen können (nicht müssen).

Stimmt auch, aber das ist mMn wenig zielführend in der Diskussion um die aktuellen oder zukünftigen Grafikkarten. Jedes Unternehmen, das noch am Markt ist, hat zwangsläufig Einiges richtig gemacht. Daraus lässt sich bloß überhaupt nicht ablesen, was in Zukunft passiert.

RDNA und Turing sind momentan (bis zur 2070S) ähnlich gut aufgestellt, kommen aber durch andere Maßnahmen an dieses Ziel.
Vlt. wird RDNA 2 bedeutend effektiver, vlt. durch zusätzliche Hardwarekomponenten für Raytracing aber auch nicht. Vlt. lässt sich der 7nm Prozess bis dahin noch wesentlich verbessern oder zumindest besser binnen, vlt. aber auch nicht.
Vlt. wird der Turing Nachfolger durch 7nm EUV bedeutend effektiver, vlt. sind die aktuellen 12nm aber auch schon so weit an die Architektur angepasst, dass durch die Fertigung "nur" der Flächenverbrauch sinkt.

Wir stecken da alle nicht weit genug drin um anhand von 5 oder 10 Jahre alten Entwicklungen realistische Prognosen für die Zukunft abgeben zu können.

Teralios schrieb:
Sein wir ehrlich: Hat man sich bestimmte Eckdaten angesehen, war die RX480 damals zwar durchaus eine Alternative zur GTX1060, aber auch primär eher wegen den 2GB, ansonsten hat eher mehr für die GTX1060 gesprochen.

Das ist aber meine Meinung. ;)

Kann man so sehen, aber die 2GB sind ja durchaus ein Argument und nicht wegzudiskutieren. Wer da seine Priorität auf welchen Aspekt legt, ist jedem selbst überlassen. Leitung und Verbrauch waren da aber mMn noch so nah beieinander, dass man durchaus auch VRAM Ausstattung, Treiber, etc. mit in die Betrachtung ziehen konnte/musste.

Teralios schrieb:
Stimmt auch, habe ich aber selbst zum Beispiel auch so zugeben. Vega war - freundlich ausgedrückt - ein Griff ins Klo, was Effizienz angeht und ohne Emotionen dabei: Die GeForce GTX 1080 ist gegenüber der Vega64 das eindeutig bessere Produkt, ebenso ist die GeForce RTX2080 gegenüber der Vega 7 das bessere Produkt.

Ich denke, da muss man nicht streiten.

Zustimmung

Teralios schrieb:
Warum ist das bedenklich? Im Endeffekt ist es eben doch genau das: Ein Hoffungsschimmer. Natürlich könnte RDNA2 auch voll abkacken - ich wills nicht ausschließen - aber was sie mit RDNA geschafft haben, lässt halt ebenso durchaus auch gutes hoffen.

Weil es vom aktuellen Zustand ablenkt und recht ungenau ist. Jede neue Generation ist besser als die Alte, sonst könnte man sich den Release ja sparen, aber jetzt schon zu sagen "Warte mal auf RDNA 2" klingt für mich ein bisschen wie das Eingeständnis, dass RDNA in seiner jetzigen Iteration nicht gut genug ist.

NVidia wird ja auch nachlegen und hat es vermutlich einfacher, da sie noch durch den Prozess Leistungssteigerungen erwarten können, während AMD den Trumpf schon gezogen hat.
 
  • Gefällt mir
Reaktionen: Teralios und PHuV
Balikon schrieb:
@PHuV Ich gebe Dir ja in vielem Recht, aber selbst bei einem Mehrverbrauch von 100 Watt komme ich bei 10h die Woche auf 1kW/h mehr Strom/Woche und damit eher auf 1,20 denn 4 Euro pro Monat. Das ist aber nicht der Punkt.
diese rechnung von mir ist nur eine beispielrechnung und die werte sind frei erfunden, auch kann es eine 1080 gegen vega 64 oder irgendwie sowas gewesen sein.
ist gefuehlt ja schon wieder ewig lange zurueck.

es geht um die mehrkosten die entstehen und wenn, und jetzt habe ich nachgeschaut 1080 vs v64 178,00 vs 303,00 Watt
Mehrkosten im Jahr: €23,21 entstehen dann spielt das schon eine rolle ob eine karte jetzt 10 oder 20 euro guenstiger oder teurer ist wenn die karten preislich eh immer recht nah beieinander liegen.
im prinzip ist es eh so das der preis mehr oder weniger an der spielleileistung im vergleich zur konkurrenz zusammen haengt, ausser ein hersteller tut mit plus ratings oder anderen tricks so als sei er so schnell wie die anderen und bietet seine produkte zu teuer an.
edit: oder er bietet vielleicht wie beispiel nvidia funktionen stichwort rtx oder andere unique funktionen wie silent oder bessere kuehlung an die ein hoehreren preis rechtfertigen koennten aus sich des verbrauchers.

aber gut ich hab den eindruck das du gemerkt hasst das es keine echten zahlen sondern ein beispiel gewesen ist.
 
Zuletzt bearbeitet von einem Moderator:
Balikon schrieb:
@PHuV Ich gebe Dir ja in vielem Recht, aber selbst bei einem Mehrverbrauch von 100 Watt komme ich bei 10h die Woche auf 1kW/h mehr Strom/Woche und damit eher auf 1,20 denn 4 Euro pro Monat.
Ich habe auch nichts gehen mehr Stromverbrauch (ich habe fast 4 Jahre mit nem T-SLI GTX 580 gelebt), aber die dadurch resultierenden Effekte wie Wärmeentwicklung und der sich dadurch ergebenden erhöhte Kühlaufwand mit entsprechender Lautheit sind doch sehr prägnant. Mittlerweile habe ich mir ja schon viele Grafikkarten angeschafft, egal ob AMD oder Nvidia, aber in den letzten Jahren waren mir die AMD schlichtweg zu heiß und zu laut. Und wenn ich richtig schaue, sehe ich sehr wohl in den vielen Tests diese Beobachtung bestätigt. Gerade für meine Kinder waren die AMD-Karten vom P/L-Verhältnis besser, der Lärm beim Spielen könnte ich zimmerweit hören. Seit ich nun konsequent alles auf Nivida wieder umgestellt hatte, ist wieder Ruhe im Karton.

Und der Streit entzündete sich ja daran, daß jemand eine 2080TI-Leistung wollte für 500 €. Und anhand der Erfahrungen der letzten 5-7 Jahre mag ich nicht mehr so daran glauben, daß wir in den nächsten 5 Jahren was überzeugten besseres und günstigeres haben werden. Wenn dann immer verzweifelt AMD schöngeredet wird, empfinde ich das doch als subjektives Fanboytum, weil die Faktenlage aktuell einfach anders ist. Traurige Wahrheit, Nvidia ist schneller, etwas kühler, aber deutlich teurer, und in der Enthusiasten- und Oberklasse gibt es seit mehreren Jahren bedauerlicherweise nichts mehr von AMD.
dersuperpro1337 schrieb:
5% schneller
15% lauter
3% wärmer
6% mehr Leistungsaufnahme

16% teurer

"Super"
In einem hat Teralios ja recht, die 290x war die letzte Karte, die zumindest leistungsmäßig rankam, aber seit dem ist Schluß. Daß heißt, wir haben vor ca. 7 Jahren für einen akzeptablen Preis von ca. 500-700 € noch Spitzenleistung bekommen. Und wir haben doch nun alle mitbekommen, wie für immer weniger Mehrleistung der Preis doch erheblich angestiegen ist. Daher, ich glaube nicht an eine 2080TI für 500 € in 5 Jahren von AMD. Ich lasse mich gerne überzeugen.
Ergänzung ()

Teralios schrieb:
Zumindest hast du schon mal erkannt, dass ich dich in dem Fall trolle und du hättest dich sogar jetzt nur mit einem blauen Auge aus der Affäre ziehen können, in dem du einfach nichts weiter dazu schreibst und ja ich breche gerade mit meiner eigenen Aussage, aber so sind wir Menschen halt.

Auch jetzt kommt von dir wieder nur viel heiße Luft, aber von deiner Seite aus kommen keinen weiteren inhaltlichen Argumente bis auf eines und da bist du natürlich genau in die Falle getappt die ich dir gestellt habe ... und beweist damit, dass du inhaltlich nicht wirklich argumentieren kannst, sondern primär nur Behauptungen aufstellst.
Bla bla, ich habs verlinkt, ich habe die Zitate hinzugefügt, wie deutlich willst Du es denn noch haben, daß Du hier falsch liegst? :rolleyes: Wo sind da irgendwelche Behauptungen von mir? Es steht dort, schwarz auf weiß, geschrieben und testet von anderen, nicht mir. Ich gebe doch nur wieder. Und sie widerlegen ganz klar Deine Behauptungen.

Und daß Du jetzt einen auf Oberlehrer machen möchtest, macht die Sache für Dich nur noch peinlicher. Zudem Du ja selbst zugibst, daß Du die meisten Karten und Dinge nur vom Hörensagen kennst.
Ich hab hier zu Hause 4 PC stehen, mehrere Notebooks, Tablets, auf Arbeit haben wir mehrere Maschinen stehen, ich kenn das Zeugs eben vielfach auch praktisch, weil ich hier permanent baue und bastle.

Schau Dir mal von mir Tests an:
https://www.hardwareluxx.de/communi...02-bootable-nvme-raid-controller-1223152.html
https://www.hardwareluxx.de/communi...-180-5k2k-nano-ips-led-hdr-600-a-1212808.html

Ich hab hier Zeugs rumstehen, davon träumen andere nur. Im Gegensatz zu Dir kenne ich viel Zeugs auch praktisch.
 
Zuletzt bearbeitet:
Teralios schrieb:
Andere jedoch als Fanboys zu diffamieren und gleichzeitig selbst in die schlimmsten Klischees abzurutschen macht keinen wirklich guten Eindruck.
Ich kann KEIN Beitrag finden wo ich dich als Fanboy bezeichnet habe...
Du Ziehst dir diesen Fanboy Schuh selber an damit habe ich nichts zutun.

mfg
Jens
 
Zuletzt bearbeitet von einem Moderator:
r4yn3 schrieb:
Nicht pauschal. Die Spiele sind einfach zu 95% so hin optimiert dass sie mit 8GB auskommen. Muss man ja, da dass der Mainstream ist.

Der "Mainstream" ist weit von 8GB entfernt.
803532


Die meisten Spiele kommen auch heute noch mit 6GB oder weniger VRAM aus und abgesehen von der extrem teuren 2080Ti oder der bereits ausgelaufenen 1080Ti und Radeon VII, bieten keine bezahlbaren Karten mehr VRAM an.
 
Aha, ich sehe nur das 50% zwischen 4 und 11GB Vram haben.
Der Mainstream von aktuellen käuflichen Karten versteht sich natürlich.
Aber dreh es wie du willst.
 
PHuV schrieb:
Mittlerweile habe ich mir ja schon viele Grafikkarten angeschafft, egal ob AMD oder Nvidia, aber in den letzten Jahren waren mir die AMD schlichtweg zu heiß und zu laut.
Hast wahrscheinlich nur auf Referenzkühler gesetzt.
 
Zurück
Oben