News Quartalszahlen: Nvidia Ampere schlägt ein wie eine Bombe

@Laphonso

Ach ja, nebenbei ging es bei der Diskussion um das Raytracing Feature bei Grafikkarten, wen interessiert da bitteschön der Automobil Sektor? Bei denen geht es um das autonome Fahren was damit wieviel zu tuen hat? Eher dürfte es um Rechenleistung für die Verarbeitung der Sensor Daten gehen udn damit auch um die Tensor Cores die es bereits bei Volta gab.

Im übrigen ignorierst du auch das auch die 1600er Reihe zu Turing gehört und was fehlt der nochmal?

Edit: Im übrigen ist der Automotive Sektor der der lt. Zahlen am meisten abgesoffen ist, auch wenn die Hauptgründe dafür andere sein dürften.
 
xexex schrieb:
Sie brauchen auch in den kommenden 3-4 Jahren sich an der reinen FPS Leistung der großen Nvidia Lösungen zu orientieren, RT leistungstechnisch links liegen lassen und in dem Markt mit vermeintlich "günstigen" Preisen Geld abschöpfen.
Nvidia hat GSync, Turing Featuresets und mehr fps.
Nvidia ist teurer.

AMD hat Preis/Leistung, kann nix gegen die RT Features setzen, hatte eine überteuerte DOA Radeon VII und stellt gerade mal eine einzige der Top 5 schnellsten GPUs

Mal sehen ob sie die nächste AMD GPU Iteration dann doch mehr packt als gapclosing und irgendetwas gegen RTX setzen kann.
Für Enthusiasten ist AMD seit fast einem Jahrzehnt irrelevant.

Wäre für uns alle gut, wenn sich das ändert.
 
  • Gefällt mir
Reaktionen: Pisaro
@xexex
RDNA Gen1 hat kein langes Leben gehabt und es war auch offensichtlich nicht geplant. GF konnte mit 12nm Fertigung nicht überzeugen können und Lisa Su ist "All in" 7nm gegangen. Die von dir und @matty2580 immer wieder angepriese Preis Dumping Strategie wäre nie aufgegangen, weil AMD auch nie so viel 7nm Chips bestellt hatte und in erster Linie alles Richtung Zen floß, was auch klug war. Für nächstes Jahr hat AMD die Wafer 7nm verdoppelt und zählt dann zum größten Abnehmer. Ich gehe nicht von Preis Dumping aus, gibt aber AMD weit aus mehr Spielraum. Die eine oder andere RDNA Gen1 Karte bekommt noch ein Refresh, aber das wird dann wohl eher noch die 5500XT sein.
 
Wadenbeisser schrieb:
@Laphonso

Ach ja, nebenbei ging es bei der Diskussion um das Raytracing Feature bei Grafikkarten, wen interessiert da bitteschön der Automobil Sektor? Bei denen geht es um das autonome Fahren was damit wieviel zu tuen hat? Eher dürfte es um Rechenleistung für die Verarbeitung der Sensor Daten gehen udn damit auch um die Tensor Cores die es bereits bei Volta gab.

Im übrigen ignorierst du auch das auch die 1600er Reihe zu Turing gehört.
Vielleich hattest Du nicht nicht realisiert, warum Nvidia seine "Billion Dollar R&D" in AI und RT gepumpt hat. Nur fürs Gaming? Dass zudem gerade der Automobil Sektor entsprechende CAD Systeme einsetzt für Konstruktionen, ist Dir klar? Dass genau bei den Kundenpräsentationen das Raytracing ein Add On bietet?

Schön, dass DICH das nicht interessiert, aber das führt zu dem, was ich Dir vorwerfe, Deine Gedankenkette basiert auf einem Fundament fehlender Informationen und falscher Annahmen.
Ist unklug, wenn man aus der Position Nvidia so schön sarkastisch dissen will und dabei nur Unwissen outet.

"RTX wie Physx". lol
Ergänzung ()

https://www.crn.com/news/components...-future-is-about-data-center-scale-computing-

Such "Gaming"
 
  • Gefällt mir
Reaktionen: RogueSix
Laphonso schrieb:
Wäre für uns alle gut, wenn sich das ändert.
Nichts leichter als das, tretet nvidia für die Blockade Politik (Physx, G-Sync, adaptive-Sync/FreeSync, DX12/Vulkan, Gameworks und wie sie noch alle heißen) und Preistreiberei (die genau damit befeuert wird) in den Hintern indem ihr mindestens eine Generationen aussetzt (alle natürlich) und ihr werdet mit den Ohren schlackern wie schnell sich was ändert wenn sie mit der Taktik gegen die Wand fahren.

Weil das aber bei der Zielgruppe mit einem zweitweisen und auch noch halbwegs coordinierten Verzicht auf "neuen Stoff" verbunden wäre wird genau das nicht passieren.
 
Laphonso schrieb:
Vielleich hattest Du nicht nicht realisiert, warum Nvidia seine "Billion Dollar R&D" in AI und RT gepumpt hat. Nur fürs Gaming? Dass zudem gerade der Automobil Sektor entsprechende CAD Systeme einsetzt für Konstruktionen, ist Dir klar? Dass genau bei den Kundenpräsentationen das Raytracing ein Add On bietet?

"RTX wie Physx". lol
Und nochmal für dich, wen juckt das bei der Diskussion zum Thema Spiele Grafikkarten?
Das es entsprechende Karten für CAD gibt ist nichts neues und deren Preise im locker 4 stelligen Bereich auch nicht nur was hat das mit der Preisentwicklung bei Spiele Grafikkarten zu tuen?
Physx gibt es übrigens auch für diesen Bereich, sogar mit der SDK 3.x Version die auch mit CPU Multithreading was anfangen kann. Bei Spielen wirst du davon eher weniger sehen und die für Spiele relevante, frei downloadbare physx System Software basiert noch auf SDK Version 2.x die schon vor 10 Jahren für den lausigen CPU Fallback kritisiert wurde.
Ergänzung ()

Ach ja, der abgesoffene Automotive Bereich wird wohl eher mit Corona und den zusammengebrochenen Verkaufszahlen der Auto Hersteller zu tuen haben.
 
Wadenbeisser schrieb:
Nichts leichter als das, tretet nvidia für die Blockade Politik (Physx, G-Sync, adaptive-Sync/FreeSync, DX12/Vulkan, Gameworks und wie sie noch alle heißen) und Preistreiberei (die genau damit befeuert wird) in den Hintern indem ihr mindestens eine Generationen aussetzt (alle natürlich) und ihr werdet mit den Ohren schlackern wie schnell sich was ändert wenn sie mit der Taktik gegen die Wand fahren.

Weil das aber bei der Zielgruppe mit einem zweitweisen und auch noch halbwegs coordinierten Verzicht auf "neuen Stoff" verbunden wäre wird genau das nicht passieren.
Da stimme ich Dir ja zu, letztlich sieht es aber so aus, wenn ich nicht branding loyality habe:

fps ultra max etc und Enthusiasten = Nvidia kaufen
Featuresets (DLSS, Raytracing) = Nvidia kaufen
GSync > Freesyc = Nvidia kaufen (auch wenn einige das triggert)
Preis Leistung: AMD oder Nvidia, hängt dann teilweise von den "brackets" ab


AMD GPUs zu kaufen, fällt midrange Bereich sicher leichter. Aber das AMD hier seit 2 Generationen nur gapcloser ist und seit 2 Jahren auch hinter RTX zurückfällt, muss mit in die Rechnung.

Die Radeon VII war ja nun der wake up call an die Träumer, dass AMD hier für 600 Euro die 2080 attackiert. Knapp daneben.
Ergänzung ()

Wadenbeisser schrieb:
Und nochmal für dich, wen juckt das bei der Diskussion zum Thema Spiele Grafikkarten?
Hak das von mir aus ab, wenn Du hier im Gedankenkrosett bleiben willst, aber deine PhysX und RTX Gleichsetzung ist halt eklatanter...ja, Unsinn. Es taugt fast zum Meme.
 
  • Gefällt mir
Reaktionen: Recharging
Wadenbeisser schrieb:
indem ihr mindestens eine Generationen aussetzt

Habe ich! In meinem PC steckt eine 1060 seit mittlerweile über vier Jahren, das einzige was AMD in der Zwischenzeit geschafft hat, waren drei Aufgüsse der RX480 und preis/featuretechnisch vollkommen uninteressante Navi GPUs.

Die Konkurrenz hat in der Zwischenzeit RT, DLSS und "Gimmicks" wie RTX Voice aus dem Boden gestampft und Unterstützung für HDMI VRR und DP Adaptive Sync nachgereicht. Beim besten Willen wüsste ich nicht wieso ich zu einer AMD Lösung greifen sollte, aber das ist an dieser Stelle letztlich auch irrelevant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging
@Laphonso

Wozu sollte man noch gleich ne Geforce für FreeSync kaufen, dessen Nutzung seit zig Jahren bei den Desktop Karten blockiert wurde? Im mobilen Bereich wurde es (adaptive-sync) ja schon länger unter dem GSync Logo verkauft.

Die VII wurde eher nur deshalb möglich weil nvidia die Preise so hochgejagt hatte und offensichtlich war auch deren Entwicklungszeit (Stickwort das sich selbst behinderne Kühlsystem) und deren Verkaufszeit (ging recht schnell EOL) entsprechend kurz.
Ergänzung ()

@xexex

Du siehst dich also stellvertretend für alle, soso......
Siehe letzter Ansatz des zitierten Postings
 
Wadenbeisser schrieb:
Die VII wurde eher nur deshalb möglich weil nvidia die Preise so hochgejagt hatte

Mir einer Roten Brille sieht man das vermutlich so, man könnte aber auch behaupten, dass AMD hier die Chance genutzt hat mit 0 Aufwand Geld abzuschöpfen, was wohl eher der "Realität" entsprochen hat. Die Radeon VII war ein Schnellschuss, mit Bios und Kühlproblemen und böse Zungen könnten behaupten, dass man so ein paar teildefekte Chips losgeworden ist, die aus welchen Grünen auch immer PCIe 4.0 nicht unterstützt haben.

Wadenbeisser schrieb:
Du siehst dich also stellvertretend für alle,

Wie kommst du auf den Blödsinn? Ich spreche für mich, als Antwort auf deine Aufforderung "abzuwarten". Bei dem was AMD in den letzten 10 Jahren "geschafft" hat, hätte man bis in aller Ewigkeit weiter warten können. Egal wie man es dreht und wendet, egal wie wie hoch oder niedrig die Erwartungen geschraubt wurden, am Ende kam nur heiße Luft heraus und nichts spricht dafür, dass sich das mit "Big Navi" ändert.

Ich kann mich nur nochmal wiederholen, mit der Strategie fährt AMD erfolgreich seit Jahren, mit geringsten Aufwand scheint man 30% Marktanteile zu halten, das muss denen erst einmal jemand nachmachen.
 
@xexex

Hättest du das gelesen worauf ich dich extra hingewiesen hatte....
Zum einen deutet "ihr" auf mehrere Opersonen hin und da du den erwähnten Absatz offensichtlich weiter ignoriert hast..
Weil das aber bei der Zielgruppe mit einem zweitweisen und auch noch halbwegs coordinierten Verzicht auf "neuen Stoff" verbunden wäre wird genau das nicht passieren.

Sofern du bisher also nicht für sagen wir mal 50% von nvidias Grafikkarten Umsatz verantwortlich bist interessiert die das herzlich wenig denn das ist die einzige dafür relevante Größe undd ie Aussage des von dir zitierten Postings. Solche Hersteller lernen nunmal nur über relevante Abweichungen im Geldbeutel.

Und zum Thema VII...Die Entwicklung von PCB Design, Kühler, Firmware, Treiber usw. sind bei dir also 0 Aufwand. All das konnte man schließlich nicht von den Instinct Karten übernehmen sondern ausschließlich die weiter gestutzte GPU.
Der Schnellschuss ist eher durch das unausgereifte Design und die kurzfristige Erhöhung der DP Leistung bei der Veröffentlichung erkennbar.

Zum Thema geschafft.....MS wollte seinerzeit bei DX11 Feierabend machen und keine low(er) level APIs für den Desktop Markt bringen. Daher das Mantle Projekt und die darauf folgenden APIs in Form von Vulkan und DX12 und was setzt die Raytracing Geschichte nochmal voraus? Gsync basiert auf eine Stromspar Technik des DisplayPort Protokols auf der auch adaptive-Sync und damit FreeSync basiert, Physx wurde von jemand anderen entwickelt, upscaling Mechanismen gab es auch schon viele und Raytracing existiert an sich auch schon länger und dessen Vorteile wurde bei Spielen wurde deutlich eher von Intel demonstriert.

Die wohl mit Abstand wichtigste Neuerung dürften die neuen APIs sein weil man mit ihnen die Hardware effektiver und effizienter nutzen kann (was von nvidia wegen des DX11 Treiber Vorteils praktisch ignoriert wurde) und die Basis fürs hoch gejubelte Spiele Raytracing liefert.

Nvidia ist eher wie Apple, sie haben eher wenig neues entwickeln sondern eher weiterentwickelt und leben in ihrer eigenen Welt in die sie keinen anderen rein lassen wollen. Und noch etwas haben sie gemeinsam...
 
Wadenbeisser schrieb:
Nvidia ist eher wie Apple, sie haben eher wenig neues entwickeln

Stell dir einfach mal die Frage was wäre wenn, Nvidia nicht vor zig Jahren die Marktführerschaft übernommen hätte und seit dieser Zeit geklotzt hätte. Dann wäre es vermutlich wie die letzten Jahre im CPU Geschäft verlaufen, wir hätten den 20ten Aufguss der misslungenen GCN Architektur, kein Adaptive Sync, kein Ratracing und würden die Leistung einer RX480 loben.

Wadenbeisser schrieb:
Gsync basiert auf eine Stromspar Technik des DisplayPort Protokols

Selten so viel Bullshit gelesen. Als Nvidia ihr G-Sync Modul vorgestellt hat, hat weder Vesa noch das HDMI Konsortium daran überhaupt mal gedacht.
https://www.nvidia.com/en-us/geforc...volutionary-ultra-smooth-stutter-free-gaming/

Erst ein Jahr später hat AMD dann als Antwort Freesync vorgestellt und hat die Lösung VESA vorgelegt, die es dann als Erweiterung des Standards übernommen haben. Zugegeben ein schlauer Schachzug von dem alle profitieren, nur gäbe es ohne G-Sync weder Freesync noch Adaptive Sync.

Jegliche Entwicklung und jeglicher Fortschritt im GPU Sektor sowohl in Hardware-, als auch im Softwarebereich, in den letzten 10-15 Jahren kam von Nvidia, von CUDA bis zu RTX und wenn du noch weiter zurückdenkst so fing das schon mit T&L und SLI an, schon damals war Crossfire nur ATIs Antwort auf eine von Nvidia entwickelte Lösung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RogueSix
Stimmt nicht. Januar 2013 hat vesa mit dp 1.2a die VRR Technik integriert. Gsync kam im Oktober. Und im folgenden Jahr wurde auf Basis von vesa VRR freesync vorgestellt.

Die vesa erweiterung gab es vor Gsync.
 
  • Gefällt mir
Reaktionen: Wadenbeisser
duskstalker schrieb:
vesa mit dp 1.2a die VRR Technik

VRR ist HDMI, Adaptive Sync ist Vesa.

Vorgestellt 03.2014, mehr ein halbes Jahr nach Vorstellung von G-Sync.
https://www.vesa.org/wp-content/uploads/2014/07/VESA-Adaptive-Sync-Whitepaper-140620.pdf

Wobei die Vergleichbarkeit auch nur bedingt gegeben ist. G-Sync ist ein komplettes Modul, was die Ansteuerung des Panels übernimmt. Adaptive Sync hingegen "nur" ein Protokoll und wie dieser vom Panel umgesetzt wird, obliegt dem Panelhersteller.
 
Zuletzt bearbeitet:
xexex schrieb:
Jegliche Entwicklung und jeglicher Fortschritt im GPU Sektor sowohl in Hardware-, als auch im Softwarebereich, in den letzten 10-15 Jahren kam von Nvidia, von CUDA bis zu RTX und wenn du noch weiter zurückdenkst so fing das schon mit T&L und SLI an, schon damals war Crossfire nur ATIs Antwort auf eine von Nvidia entwickelte Lösung.

Grundsätzlich richtig, wobei man fairerweise hier den Herrschaften von 3Dfx bei SLI noch ein wenig Tribut zollen sollte. SLI gehörte zu den Technologien/Patenten, die nVidia im Zuge der 3Dfx Insolvenz aufgekauft haben, aber das war ja keine originäre nVidia-Erfindung. Ich denke viele von uns -mich eingeschlossen- hatten Voodoos mit SLI in den 90ern im Betrieb.

Ansonsten stimme ich zu, dass nVidia als Technologieführer und Innovationstreiber selbst zu einer Zeit als ATI und nVidia noch näher beieinander lagen, für mich stets das bessere Gesamtpaket geboten haben (Performance, Effizienz/Lautstärke, Features, Treiber, Spiele-/Entwicklersupport, Abwärtskompatibilität mit älteren Spielen usw.).

nVidia müssten mehrere Jahre/Generationen grandios verk... und AMD ein paar kleine Wunder vollbringen, bevor ich AMD auch nur in Erwägung ziehen würde. Für mich ging es von Matrox/3Dfx direkt zu nVidia und ich bin stets zufrieden gewesen. Natürlich könnten die Preise niedriger sein, aber alle Tech-Unternehmen wie TSMC und nVidia haben stetig steigende R&D Kosten.
Es gibt keinen Zwang zum Zocken. Das ist mein Hobby. Ich entscheide selbst, wie viel ich dafür ausgeben will und ob es mir das Hobby wert ist. Ganz einfach. Das Rumgeheule jetzt schon vor Ampere-Release, als ob nVidia Katzenbabys grausam abschlachten würde, ist vollkommen lächerlich. Kauft oder kauft nicht, aber dieses kindische Rumgeflenne will keiner mehr hören...
 
  • Gefällt mir
Reaktionen: Andybmf, Recharging, Laphonso und 3 andere
Wadenbeisser schrieb:
Folgt man dem Schema der ersten Runde weiter sollte man sich besser vom Gedanken einer weiteren Speichererweiterung verabschieden und sich bei einer 3090 eher auf 22 GB und bei der Titan mit den bekannten 24 GB einrichten.
Das verstehe ich jetzt aber nicht. Laut dir hatte also jede Titan, bis auf die vorletzte, immer viel mehr Speicher als die Gamer-Karten. Wieso kann man dann nicht jetzt wieder davon ausgehen? Oder hab ich dich falsch verstanden?
 
BxBender schrieb:
Für 5-6 Spiele mit etwas besserer Grafik gibt kein normaler Mensch so viel Geld aus.

Warum? Gaming ist immer noch ein Hobby, zumindest bei mir. Dazu noch ein relativ günstiges. Meine 1080Ti bricht sehr stark ein in 3440x1440 und 100 Hz. Ich werde definitiv upgraden ;)
 
  • Gefällt mir
Reaktionen: Ben81 und Laphonso
FuchsDer schrieb:
Veranschaulicht sehr schön wie gut die RX 5700 XT Preis / Leistungsmäßig doch ist.
Man lernt wieder Nvidia zu meiden und lieber auf AMD zu warten.

Nunja ich warte mittlerweile 6 Jahre auf ein konkurrenzfähiges Modell oberhalb der oberen Mittelklasse. Leider hat AMD bisher nichts geliefert also blieb es bei Nvidia. Vielleicht wendet sich das Blatt ja Ende 2020. Wenn AMD sich nach Nvidia Release aber zu lange Zeit lässt wird ein großer Teil der Kunden bereits wieder in Nvidia investiert haben.
 
  • Gefällt mir
Reaktionen: Ben81
Ich hab' mir seinerzeit die Titan Xp gegönnt, welche ich weiterhin betreibe und für Full HD immer wirklich alles in bester Optik zauberte. Beim Umstieg auf 2 x UHD für die Fotobearbeitung habe ich dann schnell gemerkt, was 4-fache Pixelanzahl auf nur einem Monitor bedeutet.

Die Karte ist weiterhin toll, keine Frage - aber die Zeit bleibt nicht stehen.
Viele der Punkte wurden angesprochen, Nvidia hat aus unternehmerischer Sicht eigentlich so gut wie alles richtig oder anders rum, so gut wie keine Fehler gemacht. Den Freizeit- wie den kommerziellen Bereich mit Produkten abgedeckt für die sie auch noch entsprechende Software/Schnittstellen/AI/etc.. bieten, Unternehmen wie Mellanox aufgekauft, um auch zukünftig bei der Vernetzung großer Anlagen topp in Form zu sein, etc.

Im Prinzip schaffen sie sich ständig ihre eigene Nachfrage, da die Industrie weiter und weiter auf diese Lösungen setzen möchte.

Die Preise mögen uns als Spieler nicht mehr schmecken und beruhen wohl letztlich aus dem angesprochenen Mix aus Konkurrenzlosigkeit (seit Jahren), ROI für die Anleger und den wohl exponentiell steigenden F&E-Kosten für Forschung in Grenzbereichen des Siliziums und Fertigungstechnik.

Ich wünsche, es wäre anders wie im CPU-Sektor mit AMDs kolossaler Auferstehung gekommen.
Seinerzeit habe ich mir die 1.259 Euro teure Karte geleistet - heute scheint mir das doch ein wenig verrückt bzw. ist es mir nicht mehr wert für einen relativ kurzen Zeitraum so viel Geld auszugeben. Insofern würde ich Lösungen aus rein technischer Sicht begrüßen, die die Spiele fernab der eigenen Maschine rendern und möglichst latenzfrei nachhause streamen könnten. So hätte man einfach ständig die Leistung, die man abrufen möchte, auf Knopfdruck.

Wird alles kommen, aber noch nicht heute und wohl mit vielen Pferdefüßen.
Nvidia weiß die Regeln des Marktes einfach sehr gut zu spielen - dort sitzen nicht nur in der Entwicklung sehr helle Köpfe was Marktforschung, -beobachtung etc. anbelangt. Denn letztlich ist die Zahlungsbereitschaft ja auch bei High-End da und alle anderen Segmente bedient man spielerisch mit einem Ableger mit. Verzicht wäre ein probates Mittel, was jedoch in der heutigen Zeit den meisten fremd geworden ist (ohne gleich mit der Kriegsgeneration gleichziehen zu müssen).

Schade, dass es weiterhin wenig Gegengewicht dazu gibt aber die Anerkennung gute Produkte zu schmieden, haben sie definitiv verdient.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 7hyrael und xexex
Zurück
Oben