News Gaming Ampere mit 8 GB: Nvidia verschiebt GeForce RTX 3070 um zwei Wochen

Tomsenq schrieb:
Warum kauft man dann nicht einfach AMD?
Es gibt halt eine Gruppe, die originäre GSync only Monitore hat und damit, quasi, "verkabelt" ist mit Nvidia.

Dazu gibt es eine weitere Gruppe der Ultramax Settings+ fps Bekloppten.
Ich gehöre auch dazu und damit ist eine 3090 bei mir gesetzt. Somit braucht "meine Gruppe" daher eine AMD GPU im obersten High End, und da hatte Nividia die letzten Generationen einfach immer Vorsprung in Sachen, frames über alles, und auch Featuresets wie Raytracing und DLSS spielen eine Rolle.

Ich finde, dass die 3080 und 3090 jeweils nicht uneinholrbar sind, denn selbst Nvidia bekommt 2 Jahre nach Turing, welches ja eine fps Enttäuschung abseits der 2080Ti war, mit Ampere den Sprung von Pascal über Turing nicht überkompensiert.

Von einer 980Ti auf die 2080Ti hatte man 150% bis sogar 200% Sprünge - je nach Titel und Res - und deutlich mehr fps im Top End mit der übernächsten GPU gen.

Das leistet ja selbst die Meme GPU 3090 nicht mal Ansatz gegenüber der 1080Ti.

Eine überdrehte User 2080Ti hier im Forum hat sogar die 3090 im 4K Ultra SotTr Comupterbase Benchmark überholt, völlig absurd.

Will sagen: Ampere ist nicht so weit weg gekommen von Turing wie erhofft, die "twice as fast as 2080" Marketing Lügen von Nvidia wurden entzaubert.

AMD hat mehr Chancen denn je, Nvidia mal wieder eine GPU im Enthusiastenbereich in den Windschatten zu fahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und Benji18
Natuerlich koennte man da eine Absicht unterstellen, dass nVidia den Start so verzoegert hat, um nach dem Marktstart von RDNA2 zu versuchen den Hype und die Show AMD/RTG zu stehlen, aber wer von den bisherigen RTX Ampere Marketing-Unwahrheiten (z.B. RTX 3080 doppelt so schnell wie RTX 2080, 8K Gaming mit einer RTX 3090, welche beide ja schon in einigen Videos widerlegt worden sind und ueber Rosnienpickerei klar hinaus gegangen sind, ergo Marketingfail von nVidia) nichts gelernt hat oder bereit ist zu lernen, dem kann man auch nicht mehr helfen bzw. da sind Hopfen und Malz sowieso verloren.

Ob nun bei AMD/RTG nicht auch ein wenig beim Marketing uebertrieben wird, ja, davon ist wohl auch auszugehen, aber ob es eine Rosinenpickerei uebertreffen wird und wie beim Marktfuehrer richtig/bewusst geflunkert wird?

Das muss man wohl abwarten und wie sich die Presse verhaelt und ob diese nVidia/dem Martkfuehrer (mit der RTX 3070 Vorstellung und Testartikeln) dann in den Allerwertesten kriecht und mit Artikeln ueberproportional waehrend des AMD/RTG RDNA2 Launches weitervermarktet/veroeffentlicht.

Wenn die RDNA2 (Big) Navi21, 22 und 23 Produkte passen bzw. rund sein sollten, wird das dem ganzen keinen Abbruch bereiten und die Grafikkarten sich entsprechend wie warme Semmel verkaufen bei all den Leuten, die keinen nVidia-Fetisch haben :D.

So gesehen sehe ich das nicht wirklich mit Sorge und natuerlich ist von der typischen nVidia Masche auszugehen AMD/RTG bei deren Vorstellung bewusst in die Parade fahren zu wollen, aber ob das gelingen wird (?) und wer das weiss, der wird sich davon wohl wenig beeindrucken lassen.

Wenn die AMD/RTG Karten leistungstechnisch auch nur annaehernd an die vom Verbrauch sehr enttaeuschenden und - bis auf die RTX 3090 - mit Speicher unterbestueckten nVidia Karten heran kommen, stellt sich auch die Frage nach einer immer noch auf 8GB speicherverknappten RTX 3070 (mit der kolportierten Leistung einer RTX 2080Ti) fuer mich erst gar nicht, sondern wird es das Aequivalent von AMD/RTG (vermutlich eine RX 6800XT oder RX 6900) werden, selbst wenn die Karte wegen deutlich ueppigeren Speicher dann 50 bis 100 Euro mehr kosten sollte (was m.E. immer noch locker im Rahmen laege; bei nVidia waeren vermutlich gleich 200 Euro Aufpreis faellig fuer doppelten Speicher), aber dann auch nicht am Speicher verhungern wird.

Dass starke Konkurrenz seitens AMD/RTG auch Auswirkungen auf die Preispolitik von nVidia hat - Preise nicht wegen kleinem technologischen Vorsprung und dem Quasi-Monopol (in einigen Leistungsklassen und aufgrund der Marktanteile) wie bei RTX Turing diktiert werden (koennen) - zeigt doch, dass es wichtig ist dann den richtigen Kauf im eigenen Interesse (als Kunde) zu taetigen wenn Produkte beider Chip-Entwickler quasi auf Augenehoehe sind, um den Markt mehr ausgeglichen zu gestalten, was sich dann in mehr Wettbewerb und besseren Preisen (mehr Produkt/Leistung fuer das gleiche Geld) widerspiegelt.

Die gleiche Chose haben wir doch seit Einfuehrung von RyZen durch AMD im CPU-Makrt beobachtet und wie sich dieser positiv fuer die Kundschaft gewandelt hat und ja, RDNA2 von AMD/RTG koennte der RyZen-analoge Moment im GPU-Bereich werden, wenn die RDNA2 Produkte von AMD/RTG rund genug sind.

Natuerlich kommt es im Endeffekt auf die Kundschaft an, ob diese zur medial und von nVidia gehypten RTX Ampere Grafikkarte in Fermi-/Thermi-Manier - nicht wirklich herausragend (sondern allenfalls durchschnittlich) gelungen mit der (Verbrauchs-)Brechstange (die noch diese GPU-Generation vermutlich ganz knapp bzgl. der Leistung vorne halten wird) - greift oder eben die RDNA2 Navi Grafikkarten von AMD/RTG waehlt und durch letztere den Markt wieder ausgeglichener gestaltet.

Warten wir ab, wie sich denn in den naechsten 6 Monaten der Markt bzw. die Verkaufszahlen entwickelt werden und dann womoeglich auch noch Intel in dem Bereich einsteigt (wenn auch nicht im oberen Leistungssegment), spannende Zeiten sind das ;).
 
Dr.Pawel schrieb:
Für mich ist Ampere einfach auf Kante genäht und bislang wissen wir noch nicht wirklich warum...
Weil sies können. NVIDIA hat unabhängig der Konkurrenz schon lange alles weitestegehend in Richtung Spitze getrieben.

Ich wüsste einfach zu gerne wie die Ampere auf dem TSMC Node laufen würden!
Bezüglich der Specs lässt sich im Internet nur herauslesen, dass der 8nm LPU nvidia custom bezüglich der Packdichte dem "alten" 7nm Samsung Prozess gleicht, jedoch noch 10% mehr Performance/Watt oben drauf legt.

Je nachdem in welchem TSMC 7nm Prozess AMD für Big Navi gewählt hat, wirst Du da vielleicht eine 10-20% ige Reduktion an Leistungsaufnahme bei den Chips die in der jeweilig passenden Klasse beobachten können.
Mit steigender Größe des Chips und Anwachsen der Schaltungszahl/CUs explodiert der Strombedarf und die Heizleistung wobei die Taktfestigkeit sinkt.

Es hat schon seinen Grund, warum die PS5 mit 36CUs und 2,2GHz ein gutes Stück höher takten kann, als die XBOX (1,8GHz), die mal eben 40% CUs (52CUs) mehr versorgen muss.

Jetzt meinen hier einige, dass wenn man da zur XBOX NOCHMAL 50%! mehr CUs (80) in den kolportierten PC Big Navi verbaut, dass da auf einmal Taktraten von 2,5GHz bei unter 300Watt verbrauch und der Leistung einer 3090 auf den Zeigern stehen werden... Gäbe es nur sowas wie P ~ fmax³ nicht....

Bei TSMC würde man bei 2,5GHz mit seiner Fertigung gegen einen theoretisch dramatisch höheren Energiebedarf ankämpfen.

Nicht weil ich Samsungs Node "schlecht" finde oder die Entscheidung zu Samsung zu wechseln nicht nachvollziehen kann, im Gegenteil TSMC hat schon viel zu viel in den Händen, aber es wäre einfach super interessant zu wissen.
Das wird einfach preisliche Gründe haben. NVIDIA hat sich wohl vorgenommen, Preisbrecher auf den Markt zu werfen.
TSMC war wohl einfach zu teuer bei zu geringen Vorteilen in Packdichte, Performance und Stromverbrauch.

Man kann die entscheidenden Faktoren da auch einfach mal ganz pragmatisch sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
Tronix schrieb:
Ich spekuliere auf Weihnachten. Zumindest hätte ich bisher dahin gerne eine 3070 oder 3080 zum UVP Preis in den Händen.

Das wäre auch mein Wunsch. Ich habe aber nur geringe Hoffnung, wenn ich mir die Preise so ansehe. Auch die Entwicklung der Verkaufspreise der 20x0 Karten im Vergleich zur uvp lässt meine Hoffnung eher gering erscheinen. Bis dahin muss dann meine r9 290 noch durchhalten... Hat sie ja jetzt schon 7 Jahre, da geht ein halbes Jahr länger auch noch....
 
Laphonso schrieb:
Eine überdrehte User 2080Ti hier im Forum hat sogar die 3090 im 4K Ultra SotTr Comupterbase Benchmark überholt, völlig absurd.
Really? Die 2080TI bei SOTTR um 70% steigern? Das kriegt der selbst mit Stickstoff bei Weitem nicht hin....
1601708905936.png
 
Mich wundert es schon ein bisschen, dass Nvidia die RTX-30x0-Generation in puncto TDP so auf Kante genäht hat. Zunächst hatte ich den Eindruck, dass Nvidia unbedingt deutlichere Leistungssprünge von Turing auf Ampere vollziehen möchte, als dies von Pascal auf Turing der Fall gewesen ist, und zwar in allen Bereichen, nicht "nur" beim Raytracing. Jetzt vermehren sich die Anzeichen, dass ein deutliches Undervolting der RTX 3080 zu nur vergleichsweise geringen Leistungseinbußen führt (https://www.hardwareluxx.de/index.p...ce-rtx-3080-im-undervolting-test.html?start=9). Verbunden mit den vergleichweise "günstigen" Preisen wäre das möglicherweise ein Indikator dafür, dass AMD diesmal wirklich leistungsstarke Konkurrenzprodukte im Highend-Segment wird anbieten können. Warum sonst sollte Nvidia derartig die Brechstange auspacken, nur um ein paar Prozent Mehrleistung um den Preis eines deutlich höheren Stromverbrauchs aus der Ampere-Architektur heraus zu pressen? So oder so, wir erleben einen spannenden Hardwareherbst, der gerade erst angefangen hat...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wadenbeisser
Marc53844 schrieb:
Das ist ja der Witz daran.
Eine überspitzte Erwartungshaltung der Fanboygemeinde.

das ist auch mit der grund warum man vermutlich so zurückhaltend ist. Erwartungen erfüllen die schier so hoch wie der Everest sind können halt nicht erfüllt werden und wenn das dann auch in der realität angekommen ist läuft die abwertsspirale los.
 
  • Gefällt mir
Reaktionen: foo_1337
Es wurde doch schon spekuliert das big navi mit der 3080 konkurrieren könnte in manchen titeln. Wer meint nach gefühlten Jahrhundert plötzlich mit Nvidias Sperrspitze aufzuschließen ist m.mn. zu enthusiastisch. Die meisten werden auf eine gute AMD karte hoffen um Nvidia ein bisschen im Preis zu drücken und am Ende eine grüne Karte im PC zu haben.
 
Neue Infos von NV: rel.Vgl. zur 2080Ti @ 1440p-RT-DLSSon (<=1080p!?)
NVIDIA shares official GeForce RTX 3070 performance figures - VideoCardz.com

Ob die Bandbreite der 3070 auch mit DLSSoff reicht, wird man leider erst in den echten Reviews sehen.
Man hätte eigentlich erwartet, das die 3070 schon 1440p-RT ohne DLSS nativ stemmen kann.
So ist Das noch net so schön aussagekräftig. (aber AMD kann sich beim Launch dran orientieren)

btw.
Falls die Bandbreite ne Rolle spielt (limitiert) wäre evtl. die 3060Ti die eff. Wahl bei den alten Games ohne
RTX I/O. (also noch ein Jahr lang?)
Noch mal kurz drüber nachdenken, erst in nem Jahr werden die kompr. Texturen von der GPU ausgepackt,
momentan gehts Das noch nen Umweg über die CPU!
(nur die neuen Konsolen haben Das bei den neuen Games gleich am Start, wird interessant, wie sich Das auswirkt)

Um mal über Effizienz zu sprechen:
Nur nach Transistorzahl+FP32 wäre das o.g. eigentlich das Maß, wo der Küchenchef die versprochenen 50% weniger W nachweisen muss. (Jeder weiss wie gut die Ti@UVen läuft. Ampere 3080 dito, mal abwarten Was die User mit der 3070 am Ende tatsächlich so brauchen für 4k60fps mit RToff-DLSSoff )
 
Zuletzt bearbeitet:
Bei mir verstärkt sich der Eindruck, dass sich ein Upgrade von der GTX 1080 Ti FE auf eine RTX 3070 für mich nicht wirklich lohnt. Laut Datenbank von Techpowerup liefert die 1080 Ti 88 Prozent der gemittelten Leistung einer 3070 in Full HD bzw. 4K bei etwas höherem Energieverbrauch seitens der 1080 Ti. Dafür hat die 1080 Ti satte 3 GB mehr (wenn auch langsameres) VRAM, aber einen höheren Datendurchsatz (484 GB/s vs. 448 GB/s), was wohl entscheidend sein dürfte. Mir geht es beim Spielen nur um Strategiespiele ohne gigantische Grafikansprüche, "Elite: Dangerous" und den "Microsoft Flight Simulator 2020" auf einem 4K@60Hz-Monitor. Wer kann mir einen gut informierten Rat geben?
 
Flyerdommo schrieb:
Es kann durchaus sein, das Nvidia was starkes erwartet, aber nicht was stärkeres. Um die Prestige mit längeren Balken zu halten wäre es vorstellbar, dass Nvidia hier auf Nummer sicher gehen wollte und einfach von vornherein sicherstellen, dass der Nvidia Balken auch länger bleibt.
Desweiteren wäre eine "sparsame" 3080 mit 260/280 Watt nur 10-15% schneller (wenn überhaupt) als die meisten (bezahlbaren) OC Modelle der 2080ti bei 1 GB weniger Vram, da fehlen dann doch iwie Marketing Argumente. Um das zu vermeiden und die Pascal Besitzer zu überzeugen mussten halt viel mehr FPS her...

Alles in einem ist das ein seltsames Portfolio, unrund und verständlicherweise verursacht das VRam Thema heftige Diskussionen, nach 4 JAhren ist diese Speicherbestückung einfach ein NoGo. Sie hätten von vornherein andere Bandbreiten für die VRam Bestückung wählen sollen um ein runderes Produktportfolio zu zaubern. Keine Ahnung was das gekostet hätte, aber 5/10 oder auch 50 Dollar pro Karte hätten dem kein Beinbruch getan und sie von vornherein in eine bessere Situation gebracht.

3060 8 GB
3070 12GB /10GB
3080 16 GB
3090 24 GB

Wenn Nvidia tatsächlich von so starker Konkurrenz ausgeht, kostet der Marketingkampf um die Käuferschafft und das nachträgliche aufpolieren/anpassen des Portfolios mehr als wenn sie gleich von Anfang investiert hätten.
Ergänzung ()

Flyerdommo schrieb:
da würde ich vorsichtig sein. Die Ampere Karten, zumindest 3080/90 performen in FHD teils im CPU Limit, so dass ihre Leistung erst in QHD oder 4k wirklich zeigen können.... Aber von 11GB auf 8 mir 30% mehr performance würde ich nicht gehen. Wenn RT nicht wichtig ist, würde ich eher zur 2080ti gebraucht greifen...

Hier hast du sehr warscheinlich etwas mehr FPS als mit einer 3070 und kein Speicherdowngrade und kannst DLSS trotzdem nutzen.
Und was am wichtigsten ist, dass du das Upgrade auch merkst...

Ansonsten bleibt die Refresh 3080 mit 20Gb, hier musst du bis nächstes Jahr warten, oder du bist bereit 1700 auszugeben und holst dir ne 3090.
AMD wäre natürlich ne alternative, aber wenn du ein G-Sync Schirm hast wirds schwierig. Wobei eine 5900XT mit einem Samsung Odysse 240Hz Schirm beides kann und zusammen günstiger ist als die 3090.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Flyerdommo
.Sentinel. schrieb:
Really? Die 2080TI bei SOTTR um 70% steigern? Das kriegt der selbst mit Stickstoff bei Weitem nicht hin....
Ohne DLSS, 79 zu 77. Und ohne Stickstoff ;)
Ergänzung ()

@.Sentinel. Und was sind das immer für lahme 2080Ti in den Tests. Mit DLSS packt jede 2080Ti oc 65-70 fps

Edit knapp 55 fps packt ja sogar eine 2080 dort in 4K Ultra DLSS.
Keine Ahnung, was da getestet wurde.

Mich amüsiert immer das Schönrechnen der Ampere Ergebnisse.

TLDR: 70% schneller als die 2080Ti - so schön das wäre, dann würde ich mich weniger beklagen - sind komplette Träumerei. Oder komische Test Szenarien zu Gunsten von Ampere.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Ohne DLSS, 79 zu 77. Und ohne Stickstoff ;)
Ergänzung ()

@.Sentinel. Und was sind das immer für lahme 2080Ti in den Tests. Mit DLSS packt jede 2080Ti oc 65-70 fps

Edit knapp 55 fps packt ja sogar eine 2080 dort in 4K Ultra DLSS.
Keine Ahnung, was da getestet wurde.

Mich amüsiert immer das Schönrechnen der Ampere Ergebnisse.

TLDR: 70% schneller als die 2080Ti - so schön das wäre, dann würde ich mich weniger beklagen - sind komplette Träumerei. Oder komische Test Szenarien zu Gunsten von Ampere.
Unter dem DLSS Ergebnis von Sentinel ist eine 3090 ohne DLSS. Hier müsste die TI so heftig oced sein , dass Sie mal eben von 59 FPS auf 100 oder mehr springt (+70%). Kann es auch nicht glauben und Ultra ist nicht gleich Ultra, hast du den Link zu dem bench?
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
joshie65 schrieb:
Mir ist ein Rätsel, wie Nvidia nach dem Launch der 3080 weiterhin behaupten kann, die 3070 würde die gleiche Leistung wie die 2080 Ti erreichen.
Keine Ahnung, ob schon jemand darauf eingegangen ist aber: Das Verhältnis der Rohleistung zwischen 3070 und 3080 ist ähnlich zu 2080 und 2080ti und wie viel schneller war diese? Richtig 27%, würde mich also nicht wundern, wenn die 3070 am Ende ziemlich genau bei der 2080ti liegt. Eine Frage wer vielleicht noch wie stark die Speicherbandbreite die 3070 limitieren wird, aber warten wir’s ab.
 
Laphonso schrieb:
Mich amüsiert immer das Schönrechnen der Ampere Ergebnisse.
Es gibt im Netz inzwischen zig Tests zu Ampere. Ein Schönrechnen ist somit nicht mehr möglich, weil dieses sofort auffliegen würde - Was mich eher verwundert ist, warum hier von einigen mit allen Mitteln versucht wird, Ampere in ein schlechtes Licht zu rücken.

Status quo ist, dass man mal eben so im Gegensatz zur Vorgängergeneration die Leistung gesteigert hat und zudem die Preise MASSIV gesenkt hat. Man sollte meinen, dass die Kundschaft jetzt jubelt.
Aber der dauer- unzufriedenen und unersättlichen Konsumentenbrut ist das natürlich auch wieder nicht genug.
Man will mehr, mehr, immer mehr und kostenlos.
Alles muss mit Karten der neuen Mittelklasse auf 4K 144FPS und Ultra laufen. Sonst ist alles Mist. Achja- Und viel, viel VRAM muss natürlich sein. Hoch getaktet- Aber bitte ohne Mehrverbrauch.

Status quo ist auch, dass man aktuell aus dem anderen Lager keinerlei Konkurrenz aufbieten kann. Wie lange das so bleiben wird, ist unbekannt. Was die dann bieten wird, ist unbekannt.
Ich bin nur jetzt schon auf die Wendehals- Argumentationsweise gespannt, sollte Big Navi nicht deutlich weniger verbrauchen, bei gleicher Leistung wie die Konkurrenzkarten.... oder die 3090 nicht schlagen, obwohl man die Leistungsdaten doch hier alles ganz "konservativ" berechnet hätte...
Mal sehen, wie es dann auch um den Umweltschutz in den Foren bestellt ist ;)

Zur Stromaufnahme - Die hat anscheinend vorher niemanden interessiert:
1601715191711.png


Erst jetzt, da der Klassenfeind sich mal den Strom genehmigt, denn die Konkurrenz teilweise auch vorher schon abgerufen hat, muss ein Gesetz und ein Verbot her für diese unsäglichen Teufelsprodukte.
Klar, denn vorher hat ja der Fanboy der Gegenseite auf seinem geliebten Produkt in Sachen Verbrauch rumgehackt.

Die eine oder andere Person, die sich diesbezüglich hier aufbaut wird sich vielleicht eine der neuen Konsolen zulegen, die 300-350 Watt ziehen können. Schande!

Also ist der Ist- Zustand derjenige der zählt.
Diese Bewertungsweise wird von den RTRT und DLSS- Skeptikern angelegt (es gibt jetzt zu wenige Spiele, die XY überhaupt nutzen). Alle spiele bleiben prozentual bei hohen Int- Lasten... und und und...

Wenns dann aber gegen Ampere geht, wird dann plötzlich von der gleichen Klientel eine zukünftig mögliche Konkurrenz herangezogen, in Zukunft möglicherweise dies in Zukunft möglicherweise das et cetera.
Die natürlich dann immer gepaart mit einem maximal Negativszenario für Ampere und einem maximal positiven Szenario für die Konkurrenz.

Die Fanboylager drängen sich mit ihrer inkonsistenten Argumentation immer selbst in die Enge, weil sich ihre Argumentation oft schon kurzzeitig später gegen sich selbst richtet.
Immer schwarz/weiss. Immer extreme Argumentationen, cherrypicking und das Überbeleuchten von Einzelfällen.
Alles nur immer spitze, oder gleich Schrott.

Rein objektiv gesehen- Und da gibt es inzwischen genügend Auswertungen und Schnittberechnungen dazu, ist Ampere eine Generation, die ganz oben steht, wenn es um die positiven Aspekte für die Konsumenten geht.
Das kann man auch einfach mal akzeptieren.

Wenn es die Konkurrenz allumfassend besser macht (inkl. Softwareumfeld) und die Karten verfügbar sind, dann kann man jubeln und die Konkurrenz mit Häme überziehen.

Mir geht in den Foren immer mehr die Verhältnismäßigkeit und ein gesundes Mittelmaß an Bewertungsgrundlage ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Toni_himbeere, KlaraElfer, tidus1979 und 6 andere
Offiziell nennt Nvidia mehr Lagerware als Grund

Ja ne, is klar. ^^

Alle wissen, dass es der katastrophale technische Zustand der Ampere-Generation ist, der als gefühlt ungetesteter Bullshit auf die Gamergemeinschaft losgelassen worden ist.

Wenn reihenweise Markennetzteil Notabschaltungen vornehmen müssen, ehemals technisch hochwertige Kondensatoren plötzlich angeblich nicht mehr für die schnelle Last- udn Taktwechsel der Karte ausreichend genug sind und zu Abstürzen führen, wenn der Stromverbrauch viel höher als erwartet ausfällt, weil mann statt ausreiftem und klar überlegenem 7nm doch nur wieder eine billige 10nm+ Fertigung von Samsung (sorry, die nennen es ja 8nm, isses aber definitiv nicht!) nimmt, aber trotzdem die Taktkeule etc. schwingt, ja dann sollte man es sich wirklich einmal überlegen, die Karten noch einmal durch eine Abteilung namens Qualitätssicherung zu schicken.
Sicher fallen da dnan noch ein paar Ungereimtheiten auf, dass man Treiber, Firmware und evtl. sogar ein paar technische Änderungen vornehmen muss.

Mehr Lagerware kann es jedenfalls definitiv nicht sein.
Jeder Studienanfänger kann der Firmenführung ganz genau ausrechnen, wie hoch die zur Verfügung stehenden Stückzahlen aussehen werden.
Da hätte also schon irgendwo ein Werk abfackeln müssen, um in letzter Sekunden dann doch nicht mehr liefern zu können.
Wenn man weiß, wie hoch die Abzatzzahlen der letzten generationen sind, und man sich auf die eigenen Marketingaussagen mit den zahlreichen Lügenmärchen der xfachen Leistung udn Effizienz (die ja nachweislich überhaupt nicht zutreffend ist!) als Zugpferd setzte, hätte man ja mit einer explodierenden Abnahmemenge rechnen können udn auch müssen.

Man kann es also drehen und wenden wie man will: NVidia hat alles verbockt, was es zu vergeigen gibt.
Ich bin jetzt seit über 25 Jahren dabei, mir ist so etwas noch nie untergekommen, oder ich werde nur vergesslich.
 
  • Gefällt mir
Reaktionen: Cyberwiesel und Chismon
zwergimpc schrieb:
... spekuliert das big navi mit der 3080 konkurrieren könnte in manchen titeln. Wer meint nach gefühlten Jahrhundert plötzlich mit Nvidias Sperrspitze aufzuschließen ist m.mn. zu enthusiastisch. Die meisten werden auf eine gute AMD karte hoffen um Nvidia ein bisschen im Preis zu drücken und am Ende eine grüne Karte im PC zu haben.

Dummerweise werden solche Hoffnungen aber auch von einigen geschuert, wie hier z.B., dass eine RX 6900XT (16GB) etwa mit einer RTX 3090 (24GB) beinahe auf Augenhoehe liegen koennte (evt. fuer deutlich weniger Geld?).

Wuenschenswert waere das natuerlich, so dass eine RX 6900 (16GB) erfolgreich gegen eine RTX 3080 (10GB) antritt und eine RTX 6800XT gegen eine RTX 3070 (so dass in jedem Fall noch RTX 3080Ti und RTX 3070Ti Karten nicht nur mit mehr Speicher aber auch etwas mehr Leistung/Verbrauch bei nVidia noetig werden), aber wie realistisch das ist oder ob man es unter Wunschdenken verbuchen wird koennen?

Coreteks ist nicht gerade als serioes einzuschaetzen (wenn ich da bspw. an die Co-Prozessor-Geruechte fuer RTX Ampere Platinen denke), auch wenn er sich hier auf die angeblichen, nachfolgenden Infos von I'm not a Apple Fan bezieht:


und nicht die nachfolgenden, eigenen Spekulationen:


Lange ist ja nicht mehr hin und in den kommenden vier Wochen wird es sicherlich noch das ein oder andere (mitunter absurde) Geruecht zu Navi21 bis 23 geben ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
BxBender schrieb:
Alle wissen, dass es der katastrophale technische Zustand der Ampere-Generation ist, der als gefühlt ungetesteter Bullshit auf die Gamergemeinschaft losgelassen worden ist.
Wenn willst Du hier eigentlich für Dumm verkaufen? Ist Dir so ein Satz nicht selbst irgendwie peinlich?
Selten so einen Haufen undifferenziertes und bis über die Schmerzgrenze hinaus überzeichnetes Zeug gelesen.

Hauptsache mal wieder sinnlos draufgehauen.... fühlst Du Dich jetzt besser?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, USB-Kabeljau, foo_1337 und eine weitere Person
BxBender schrieb:
Ja ne, is klar. ^^

Alle wissen, dass es der katastrophale technische Zustand der Ampere-Generation ist, der als gefühlt ungetesteter Bullshit auf die Gamergemeinschaft losgelassen worden ist.
Alles schon gefixt ohne großes Problem, es gibt kein Ampere Gate und schon gar nicht einen katastrophalen Zustand, dafür sind die bisherigen Bewertungen und Foreneinträge zu positiv. Einfach mal öfters die Artikel nachlesen.


BxBender schrieb:
Wenn reihenweise Markennetzteil Notabschaltungen vornehmen müssen, ehemals technisch hochwertige Kondensatoren plötzlich angeblich nicht mehr für die schnelle Last- udn Taktwechsel der Karte ausreichend genug sind und zu Abstürzen führen, wenn der Stromverbrauch viel höher als erwartet ausfällt, weil mann statt ausreiftem und klar überlegenem 7nm doch nur wieder eine billige 10nm+ Fertigung von Samsung (sorry, die nennen es ja 8nm, isses aber definitiv nicht!) nimmt, aber trotzdem die Taktkeule etc. schwingt, ja dann sollte man es sich wirklich einmal überlegen, die Karten noch einmal durch eine Abteilung namens Qualitätssicherung zu schicken.
Sicher fallen da dnan noch ein paar Ungereimtheiten auf, dass man Treiber, Firmware und evtl. sogar ein paar technische Änderungen vornehmen muss.
Von reihenweise kann nicht die rede sein, es gibt 2 oder 3 Reviewer die ein Problem mit einem 5 Jahre alten Netzteil hatten, sonst liest man eher weniger bis gar nicht davon. Wenn du aber andere Infos hast, Quellen?
Übrigens ist der TSMC 7nm Node auch kein 7nm, sondern eher bei 10nm... ;) Übrigens wo ist da deine Kritik ggü. TSMC und AMD, ist einfach ein Marketingname...
750Watt Markennetzteile sind halt für die Top Dogs nötig, ob man es mag oder nicht. Für meine Aorus 2080Ti brauche ich schon mind. 650Watt sonst steigt es aus...


BxBender schrieb:
Mehr Lagerware kann es jedenfalls definitiv nicht sein.
Jeder Studienanfänger kann der Firmenführung ganz genau ausrechnen, wie hoch die zur Verfügung stehenden Stückzahlen aussehen werden.
Da hätte also schon irgendwo ein Werk abfackeln müssen, um in letzter Sekunden dann doch nicht mehr liefern zu können.
Wenn man weiß, wie hoch die Abzatzzahlen der letzten generationen sind, und man sich auf die eigenen Marketingaussagen mit den zahlreichen Lügenmärchen der xfachen Leistung udn Effizienz (die ja nachweislich überhaupt nicht zutreffend ist!) als Zugpferd setzte, hätte man ja mit einer explodierenden Abnahmemenge rechnen können udn auch müssen.
Warum sollte man dafür ein Studium brauchen, jeder X-beliebige Kaufmann/Produktionstechniker oder Maschinenarbeiter, der Erfahrungen in der Chipherstellung hat, kann dir die Ausbringungsmenge unter Berücksichtigung der Rüst- und Wartungsintervalle aufrechnen. Sich jetzt hier so aufzuspielen, als wären das Vollpfosten und nur die Community in der Lage, das einschätzen zu können, ist Kindergarten. Nix für ungut, möchte dich nicht persönlich angreifen...
2 Wochen bedeuten für NVidia und AIBs einfach deutlich mehr Zeit um eine etwas bessere Verfügbarkeit zu gewährleisten, was aber immer noch nicht genug sein wird um alle glücklich zu machen.

BxBender schrieb:
Man kann es also drehen und wenden wie man will: NVidia hat alles verbockt, was es zu vergeigen gibt.
Ich bin jetzt seit über 25 Jahren dabei, mir ist so etwas noch nie untergekommen, oder ich werde nur vergesslich.

Marketinglügen sind alltäglich, damit möchte ich diese nicht relativieren, aber das jetzt so hinzudrehen als wenn dies das erste mal vorkam ist auch nicht die feine Art. Ist nämlich auch eine Marketinglüge, wenn man nur den grünen sowas unterstellt, obwohl Konkurrenten und andere Branchen den selben Blödsinn verzapfen.


Ansonsten liest sich der Beitrag nur wie ein NVidia Bashing und wo war die Kritik als Vega auf den MArkt kamen mit 1070 Leistung und Minimum 650 Watt Netzteil, weil alles darunter auch ausgestiegen ist...? Und die Verfügbarkeit?
Ampere ist keine Perle/Gen wie Maxwell oder Pascal, aber alles andere als das was du darüber schreibst.


Edit: Übrigens hier mal ein Vergleich der Chipfertigungstechnologie und der Strukturbreiten

https://www.hardwareluxx.de/index.p...g-tsmc-5-nm-vs-intel-10-nm-vs-glofo-7-nm.html


https://www.golem.de/news/fertigungstechnik-das-nanometer-marketing-1709-129983.html
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer, McFritte, foo_1337 und 2 andere
@BxBender :

Zu einem Teil stimme ich dem zu, was Du schreibst, zu dem anderen Teil denke ich aber schon, dass nVidia hier auch versucht (neben dem offensichtlich gesetzten Datum einen Tag nach AMDs/RTGs RDNA2 Marktstartankuendigung und Produktpraesentation, zum beabsichtigen stehlen der Show per eigenem und wohlgesonnenem medienunterstuetzten Marketing) mit den (wichtigeren) RTX 3070 (und spaeteren, aktuell als RTX 3060Ti gehandelten) GPUs eine Art Wiedergutmachung zu betreiben, nachdem die RTX 3080 und RTX 3090 Vermarktung suboptimal bis ein ziemlicher Reinfall bisher war.
 
Zuletzt bearbeitet:
Zurück
Oben