News Grafikkarten: AMD verliert im „schlechtesten Quartal seit über 10 Jahren“

@MOS1509

Deine Aussage würde nur Sinn ergeben, wenn RTX dementsprechend abgesetzt werden würde. Da die Nachfrage nach den so "innovativen RTX Karten" aber schlecht ist, laut nVidia CEO, ist deine Aussage schon widerlegt.

nVidia mag durch verschiedene Aspekte seine Marktanteile gesteigert haben (was sich durch Analysten aber nur schwer belegen lässt, da ständig jemand was anderes behauptet), aber mit Sicherheit nicht durch Innovation.
 
  • Gefällt mir
Reaktionen: eXe777
NV ist doch innovativ. Zumindest bei der Preissteigerungen. 🤣
 
  • Gefällt mir
Reaktionen: eXe777 und aldaric
MOS1509 schrieb:
Der Satz bezieht sich auf sinnvolle Innovation, welche ein besseres Produkt hervor bringt. Die Bulldozer CPUs waren eine Innovation, aber keine sinnvolle, da das Produkt schlechter war, als das des Wettbewerbs. Und bei GraKas hat AMD nunmal seit 2017 kein richtiges neues Produkt auf den Markt gebracht. Nvidia hat mit Turing ein neues Produkt entwickelt und konnte durch die bessere Innovation als der Mitbewerber seine Marktanteile steigern.

Schau dir einfach die Historie der AMD GPUs an und welche Wege und Techniken die zuerst umgesetzt haben.
 
  • Gefällt mir
Reaktionen: eXe777
ZeT schrieb:
Es geht nicht darum, was UV bringt sondern wer das tut. Die meisten Leute die eine AMD verbaut haben lassen die auf Stock laufen. Ein Tech Forum ist nicht der Durchschnitt.

Vergleich nicht Wattman der mit Treiber gefiert wird mit Afterbruner.
Zumal der Auto-UV Button im Treiber wirklich funktioniert.
Aber es betreibt ja keiner UV oder OC mit dGPUs jenseits der 300€.... :lol:
Das Argument von dir ist nicht haltbar.

ChristianTHB schrieb:
Ich versteh einfach nicht, warum man die Radeon VII nicht einfach mit 8 GB rausgebracht hat.
Da würde das P/L Verhältnis viel besser passen und man hätte einen Vorteil...

-Weil sie trotzdem keiner gekauft hätte, Vega20 wäre mit halber Bandbreite merklich langsamer.
-Weil die mit den Packeds nichts anfangen können, so werden sie halt noch einiges loss was zur MI60 nicht getaugt hat. Wie auch NV mit der ganze RTX Reihe.
-Weil eine neue strecke aufgemacht werden muss um die Packeds zu fertigen, Kostet extra.
 
Zuletzt bearbeitet von einem Moderator:
Rock Lee schrieb:
Ich habe bei meinem Kumpel am letzten Wochenende seine passive MSI RX 560 im Einsatz gesehen und gehört. Das Teil ist fast so laut wie ein Asteroideneinschlag (etwas untertrieben). Dabei war der PC nur im Stand-by Modus. Sowas kommt mir nicht ins Gehäuse. Meine Nvidia GTX 480 im Referenzdesign ist selbst übertaktet flüsterleise, auch beim Zocken.
🤣🤣
 
Ozmog schrieb:
Dann kann ich im laufe des Tages meinen Rechner umbauen.
Ich muss noch warten. Mf wartet noch auf den Kühler und das MB. -.-
Immerhin gabs meinen Wunschmonitor 120,- billiger.
Wenn’s klappt, kann ich alles nächste Woche zusammenschrauben. :)
 
Zuletzt bearbeitet:
Vega läuft.
Erst über die relativ hohen Drehzahlen gewundert (hatte da noch Musik laufen, also nur durchs ablesen festgestellt), die Lüfter gehen nicht niedriger und Zero-Fan gibt es auch nicht, ist eben "nur" die Pulse und keine Nitro. Allerdings fällt die Grafikkarte trotz der 1250 RPM kaum auf. Ohne Musik hätte ich mich wohl ebenso über die Drehzahl gewundert. Beim Spielen wird sie auch nur wenig lauter. Ganz viel hab ich jetzt aber noch nicht getestet.
Krass sind die niedrigen Taktraten im Idle (war ja damals zum ersten Vega-Test auf erwähnt worden), wenn ich die mit meiner Polaris vergleiche. Auch bei drei Monitoren bleibt der Takt schön weit unten, Springt aber ziemlich hin und her.
Im Gegensatz zu der RX580 bleibt auch der Speicher mit drei Monitoren auf den niedrigsten Takt, die RX580 hat mit dem dritten Monitor dann den Speichertakt voll aufgedreht.

Von Laut und Heiß ist da nichts zu merken, so wie viele doch darüber mutmaßen... Und das mit den "Budget"-Kühler von Sapphire.

Hier übrigens der Test von CB von der V56 Pulse: Test
Bei der Lautstärke unter Spielelast (Witcher UHD), ist die Pulse sogar leiser als die dort aufgeführten Partnerkarten von Asus und MSI mit Nvidia-GPU.
 
Zuletzt bearbeitet:
ZeT schrieb:
Du unterstellst mir eine Lüge? Du bist zu putzig.. aber ich spiel noch ein bisschen mit dir.

DU hast die Größe des Grafikspeichers als Argument bezüglich der besseren Nachhaltigkeit von AMD ins Spiel gebracht - nicht ich.

ICH wies drauf hin, dass AMD und Nvidia beide Modelle mit identischer Speicherbestückung auf dem Markt haben und somit deine Argumentation keinen Sinn ergibt. Was mal war ist völlig irrelevant. Es geht um das jetzt und hier und was die einzelnen Karten an Strom verbrauchen.

Am Ende ist auch die Diskussion über den Speicherausbau obsolet, da man ja auch die Texturen reduzieren kann und somit nicht zu einem Neukauf gezwungen wird.
Ich unterstelle nichts, ich stelle fest.
Du versuchst mir einen Vergleich zwischen 2 Produkten unterzujubeln den ich nicht durchgeführt hatte und damit ist die Aussage des Postings eine Lüge.
Zudem suchst du dir so ziemlich die einzigen Produkte der aktuellen Produktpalette raus auf die deine Aussage zutrifft.
RTX2080 vs. Radeon VII - 8GB vs. 16GB
RTX2070 vs. Vega64 - 8GB vs. 8GB
RTX2060/1660Ti vs. Vega56 - 6GB vs. 8 GB
GTX1060 vs. Rx 580/90 - 6GB vs. 8 GB
GTX1050 vs. Rx 560 - 3 GB vs. 4 GB
Die GT1030 tritt nur noch gegen die APUs an und der Rest tummelt sich irgendwo dazwischen.
Schaut man in die vergangenen Serien dann findet man noch deutlich mehr Beispiele.

Und nein, man kann die Texturen Qualität beim kleineren Speicher nicht nur verringern sondern man muss damit die Leistung der Karte wegen Speicherüberlauf nicht komplett weg bricht.
 
@Wadenbeisser

Im Kern hast du natürlich recht was den Speicherausbau anbelangt. Die Frage ist nur - wer außer uns Bastler rüstet auf bzw undervoltet sein System?

Das ist doch nur ein geringer Prozentsatz und im Vergleich zur Masse völlig irrelevant. Denn die Masse schmeisst nicht ihren PC weg weil die ein paar Regler verschieben müssen. Von der Masse selbst sind vermutlich 99% noch in FHD unterwegs, bis die das wirklich trifft vergeht einige Zeit.

Und das ist der Punkt wo ich über Nachhaltigkeit spreche. Wenn 1 Mrd. Menschen 100 Watt mehr verbrauchen, dann ist das ein Faktor der nicht zu vernachlässigen ist. Diesen Leuten ist es auch völlig egal ob ihre Karte 4GB, 6GB oder 8GB hat. Das ist für diese Käuferschicht keine Kriterium weshalb sie sich einen neuen PC kaufen würden.

Ich persönlich reite weiter auf meiner 1060 3G rum und warte auf die kommenden GPUs von AMD und Nvidia. AMD is wie gesagt aufgrund des Stock Verbrauchs ein No-Go und eine neue Karte sollte eigentlich mindestens 8 GB haben. Das ist natürlich ein Dilemma da NV hier nur ihre RTX Serie hat die dank RT usw. viel zu teuer ist.

Die 1660 TI wäre eventuell eine Alternative da ich nicht so anspruchsvoll bin und im Vergleich zur aktuellen Karte sich der Speicher immerhin verdoppeln würde. Das wäre aber auch nur dann der Fall wenn man eine gescheite 1660 TI für max 250€ bekommen würde.
 
1. Man merkt es jetzt schon bei aktuellen Spielen selbst unter FHD, das 6GB nicht mehr ausreichen. Tests sind auf CB nachlesbar (wenn man wirklich sich informieren will).

2. Du bringst wirklich ein Beispiel wo theoretisch 1Mrd. Menschen dieselbe GPU haben und es schaffen diese solange unter Volllast laufen zu lassen, das 100Watt mehr Verbrauch auffallen. Cool, dann sag ich mal theoretisch wenn 1Mrd. Menschen aufhören jeden Tag ihren Fernseher laufen zu lassen, sparen wir die 100 Watt Mehrverbrauch wieder locker ein. Oder wenn 1Mrd. Menschen aufhören jeden kurzen Weg mit dem Auto zu fahren und wieder mehr zu laufen, sparen wir sogar noch viel mehr an unnötig verbrauchter Energie (in vorm von Benzin halt) ein.
So tolle Theorien in den Raum zu werfen macht Spaß. Will noch wer seine Theorien die an den Haaren herbei gezogen sind mit uns teilen, weil man sonst keine richtigen Argumente hat?

3. Mit welchen Belegbaren Studien kannst du eigentlich deine Aussage Untermauern, das die nicht Nerds es nicht interessiert wie hoch der Speicher ist bei der neuen GPU im neuen Rechner? Und nein Falsche Beratung zählt leider nicht.

4. Und es ist schön, das du mit deiner 3GB Karte noch zufrieden bist, da du ja keine Ansprüche stellst. Aber das ist halt nur deine eigene subjektive Meinung. Andere sehen es halt nicht so und somit hör bitte auf immer für andere sprechen zu wollen.
Und wenn du dir eine 1660Ti holst, wo jetzt schon bewiesen ist durch Tests auf Techseiten, das diese je nach Spiel unter FHD ins Limit rennen wird (Nur noch mal zum Verständniss, das ist eine neue Karte für FHD die jetzt schon Limitierungen aufweist), dann wirst du damit viel Freude haben. Weil du stellst ja keine Ansprüche. nVidia wird sich sicher auch freuen über deinen Kauf. Aber jeder andere, der den Anspruch hat, dass eine neue Karte die für die jeweilige Einstellung beworben wird, beim Kauf funktioniert ohne Regler zum Start schon nach Links zu schieben. Der wird mit so einer Karte nicht glücklich.

5. Und das ist der wichtigste Punkt:
Was ist dir so wichtig daran als bekennender nVidia Käufer, zu einem Thema wo es um AMD geht zu schreiben? Und das mehrfach. Mich interessiert das wirklich. Weil du hast keine wirklichen Argumente mit denen du hantieren könntest. Du machst dir ja nicht einmal die Mühe dich über die Technik die du aufführst dich wirklich zu informieren. Du schreibst teils irgendwelche Phrasen die andere mit keiner eigenen Meinung schon so oft gebracht haben (und die alle schon so oft widerlegt wurden).
Also sag mir, was ist deine Motivation in so einem Thread zu posten?
 
Eigentlich will er damit nur ausdrücken, Scheiss AMD, ich will NV, aber du drückst mir nicht die Preise so schön wie früher. 😂
Immer und immer wieder das gleiche.
AMD ist 2-5% langsamer: Nee AMD kauf ist nicht, die sind ja viel zu langsam
AMD hat mehr Speicher: Ne kauf lieber NV, das braucht doch keiner
AMD hat mehr Speicher und ist billiger: Nee, lieber NV, die AMD Treiber sind so scheiße
Und so weiter und so fort..........
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, eXe777, Unnu und 2 andere
Aldaric87 schrieb:
nVidia mag durch verschiedene Aspekte seine Marktanteile gesteigert haben... aber mit Sicherheit nicht durch Innovation.

Vielleicht bist du dir da nicht sicher, aber du sprichst definitiv nicht für Entwickler und die User, sondern nur für einen kleinen Teil extremer AMD Anhänger, so wie es einige hier gibt die für Nvidia ihr letztes Hemd geben.
Zu sagen es gibt keine Innovation bei Nvidia ist schon ignorant.
 
  • Gefällt mir
Reaktionen: kisser
Gaugaumera schrieb:
Anstatt dessen wird einfach immer mehr Hardware auf ein Problem geworfen.
Nicht mehr lange. Nachdem Moores Gesetz nicht mehr gilt und die Kosten pro Schritt explodieren, muss so langsam mal wieder die Software effizient werden. Da gibt es imho noch derbe viel Potential, das in den letzten 10-15 Jahren sträflich vernachlässigt wurde.
Einen Ausweg sucht die HW-Fraktion ja schon mit mehr Kernen, nur gibt es bei der Parallelisierung eben auch Grenzen.
Das letzte Jahrzehnt war recht luxuriös, (und etwas Langweilig) jetzt kommen wir wieder in unbekannte Gewässer. Technologiewechsel stehen an, neu aufgetauchte Grenzen müssen überwunden werden.
Es wird wieder spannender.
Schön.
 
@KlaraElfer
Dann führe mal bitte auf, welche Innovationen nVidia in den letzten sagen wir 10 Jahren gebracht hat, die a) für alle nutzbar sind und nicht properitär, b) wirklich die Gamingindustrie vorran gebracht hat und c) nicht vom Käufer extra bezahlt werden musste.

Und RTX und DLSS brauchst du erst gar nicht erwähnen da dies schon a) und c) nicht erfüllen. Und ob b) eintrifft, steht auch noch in den Sternen.
 
  • Gefällt mir
Reaktionen: eXe777
Aldaric87 schrieb:
nVidia mag durch verschiedene Aspekte seine Marktanteile gesteigert haben (was sich durch Analysten aber nur schwer belegen lässt, da ständig jemand was anderes behauptet), aber mit Sicherheit nicht durch Innovation.

Der überwiegende Teil der Add-in Boards geht an OEMs und landet in Komplettsystemen. Nvidia und die zugehörigen Marken haben eine bessere Stellung am Markt und gleichzeitig sind die Produkte für OEMs grundsätzlich deutlich attraktiver. Also GTX 1050, 1060 und 1070 sowie die TI Varianten. Bei vergleichbarer Performance ist die Verlustleistung erheblich niedriger. Also kleiner dimensionierte/kompaktere Netzteile, Kühlelemente, Lüfter, Gehäuse etc.

Beispielsweise liegt eine RX 590 um die 10% vor einer GTX 1060 FE. Zieht dafür aber (real, Spiele) knapp 100W mehr. Das ist in einem OEM Komplettsystem brutal viel. Quelle:
https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/3/
https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/4/

Oder eben ein System welches ein OEM maximal für die Verlustleistung im Rahmen einer RX 590 auslegt kann mit Nvidia GPUs bis inkl. einer RTX 2080 skalieren. Das ist es schlichtweg wirtschaftlicher drei GPU Varianten von Nvidia einzusetzen und damit nahezu alles (Mainstream, Performance, Highend) abzudecken.

Mit Turing ist die Differenz nochmal etwas größer geworden. In den Bereichen mit wirklich hohen Stückzahlen hat AMD praktisch nur Polaris bzw. Refresh. Noch krasser wirkt es sich im Bereich der mobilen Systeme aus (Notebooks). Hier kann AMD den OEMs aktuell nicht mal mehr konkurrenzfähige (Performance) mobile dGPUs liefern um diese mit Ryzen 3 (Picasso) zu kombinieren.

Polaris und Pascal sind beide 14nm FF. Also bezogen auf die Fertigung halbwegs vergleichbar. Wenn dann ein Anbieter eine 60 bis 80% höhere Effizienz hat fällt das durchaus unter Innovation. 10 oder 20% Differenz (Performance, Performance/Watt) wären kein Problem denn das lässt sich immer über den Preis kompensieren. So ist AMD aber einfach zu weit weg und die Folge sind zwangsläufig sukzessive abnehmende Marktanteile. Genauso wie es bei CPUs lange der Fall war.
 
Zuletzt bearbeitet:
Wie sieht denn eigentlich die Energieeffizienz aus, wenn man bei AMD Chill einschaltet?

Abgesehn davon, das ein PC die meiste Zeit nicht unter Vollast läuft...
 
TheUngrateful schrieb:
AMD war eigentlich immer der innovative Laden der volles Risiko geht.
Sowohl bei CPU wie auch bei GPU.

Beispiele?
Ergänzung ()

MOS1509 schrieb:
Die Bulldozer CPUs waren eine Innovation,

Ich wüsst jetzt nicht wo.
Ergänzung ()

TheUngrateful schrieb:
Schau dir einfach die Historie der AMD GPUs an und welche Wege und Techniken die zuerst umgesetzt haben.

Welche denn?
 
Den Computer als wichtigen Teil des Energie Sparens zu deklarieren, ist schon sehr weit her geholt. Da gibt es doch schon viele andere Punkte, die viel leichter viel mehr bringen. Da kann der einzelne schon mit dem Auto anfangen und nur mit Anpassung des Fahrverhaltens schon viel einsparen. Was es alleine schon bringt, wenn man statt 160 oder schneller, nur 130 auf Autobahnen fährt, da sind die Paar Watt eines PCs sehr unbedeutend.

Wenn es denn um Effizienz im PC geht, dann sollte man aber auch gleich das Übertakten abstellen, auch das automatische als Turbo bekannte Feature (kann man gleich für GPU und CPU so machen), das drückt auch schon auf die Effizienz. Und beim Monitor auch auf den Verbrauch achten, da gibt es erhebliche Unterschiede, worauf aber kaum einer achtet.

Wenn ich noch an die erste Stromrechnung meiner letzten Wohnung denke, da schrieb der Versorger mich an, dass die (geringen) Verbrauschswerte nicht plausibel klingen und ich es begründen sollte, warum der Verbrauch so niedrig ist, trotz ständig Computer und/oder Fernseher laufen lassen. Ne saftige zückzahlung hab ich auch bekommen inklusive Anpassung der monatlichen Zahlung.

Gilt auch für meine aktuelle Wohnung, wobei der Energieversorger in den Nebenkosten direkt mit drin ist. Erste Nebenkostenabrechnung einen relativ hohen Betrag wiederbekommen, und jetzt immernoch Rückzahlungen, obwohl ich eine AMD-Karte verbaut habe, meistens zwei Monitore gleichzeitig laufen, der PC ständig über mehrere Stunden hinweg an ist, gerne auch noch der Fernseher nebenher läuft und ich auch mal diverse Tage mit Folding@Home den PC unter Last durchlaufen lassen habe... Da hat der PC bei mir keinen hohen Stellenwert beim Energie Sparen.

Man kann also vieles an den Haaren herbeiziehen, wenn es sein muss.
 
  • Gefällt mir
Reaktionen: Fresh-D
Meiner Erfahrung nach sind doch gerade die Käufer der großen Masse so dass sie nur auf Aushängeschilder achten. Nvidia. 8GB. 20MP.
 
Zurück
Oben