News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

@hahaqp
in einem Spiel? das ist echt viel;)

Wie sieht es bei 20 Games in den letzten 12 Monaten aus? ;)
 
@iceshield Ja, und das wird sich in Zukunft natürlich nicht häufen :freak: Deine Empfehlung ist schlicht Quatsch. Pascal stinkt bei Low Level APIs einfach gnadenlos ab. Wie man dann Mitte 2020 davon sprechen kann dass eine veraltete Architektur noch immer "P/L Sieger" wäre ist mir unbegreiflich.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und PS828
@ hahaqp
Ganz einfach: die Leistung der Pascal reicht aus, um noch locker 1-2 Jahre zu spielen.
Und wenn die perverse Preispolitik erhalten bleibt, dann würde ich sagen (nachdem die 3000 Serie released wird), dass die 2000 Serie die Beste P/L hergibt, die man kaufen kann!
Voraussetzung: Die 3000er wird deutlich besser als die 2000er

Ich glaube wir haben hier ganz andere Ansichten.
Anhand der Preispolitik und 0 Konkurrenz seitens nVidia, kann ich persönlich keinem Menschen, der noch bei Verstand ist, eine GFX andrehen, die über 800 ,- kostet und deren Mehrwert in Kürze obsolet wird. Darüber hinaus ist die Leistung, für das Gebotene, eher etwas für den Mainstreamuser (also uns). Bitte nicht falsch verstehen. Die aktuellen Preise, in Anbetracht der Leistung (2000er), sind doch ein wenig suborientierter.
 
Zuletzt bearbeitet:
iceshield schrieb:
@hahaqp
in einem Spiel? das ist echt viel;)

Wie sieht es bei 20 Games in den letzten 12 Monaten aus? ;)

Stand jetzt in RDR2. korrekt. Allerdings dann auch in jedem anderen Spiel mit einer low level API wie sie RDR2 hat :)
 
Wann gab es das zuletzt, dass im gleichen Quartal eine neue CPU-gen (zen3) und gleich zwei neue GPU-Gens anstehen? Q4 dürfte der perfekte Zeitpunkt für ein PC-Upgrade sein, 16- Kern Ryzen 4000, Ampere/RDNA 2 mit 16 GB und 64 GB RAM, freu mich auf Q4!
 
  • Gefällt mir
Reaktionen: andy484848 und Zwirbelkatz
Max007 schrieb:
Q4 dürfte der perfekte Zeitpunkt für ein PC-Upgrade sein, 16- Kern Ryzen 4000, Ampere/RDNA 2 mit 16 GB und 64 GB RAM, freu mich auf Q4!
Eher Q2 2021, dann haben wir perfekt angepasste Treiber und die Preise haben sich beruhigt. Ich weiß jedoch auch nicht ob ich mich an meinen eigenen Rat halten kann.😀
 
Zock schrieb:
„Meine“ Schmerzgrenze sind 85 hz war bei CRT schon so ist bei den heutigen nicht anders.
Wobei man natürlich sagen muss, dass 85 hz in Sachen Latenz und Darstellungsqualität beim CRT nachwievor weit über den 85Hz von heutigen TFT Monitoren liegen/lagen.
Und das ist ja das Problem bzw. auch ein bisschen der Nepp am Kunden.

Nach dem Motto mehr=besser wird hier mit schwindelerregenden Hz Zahlen um sich geworfen, die aber schon aufgrund der mangelnden Technik keinem Vergleich mit einem CRT standhalten.
Die Problematik daran ist, dass dass die User rein aufgrund der Erfahrungen mit Flachbild- Monitoren dann ihre Erfahrungswerte in allgemeingültige Aussagen ummünzen, wie z.B., dass der Sprung von 120Hz auf 240Hz nochmal etwas brächte.
Das kann er rein Biologisch eben nur, wenn die 120Hz, die man als Referenz bietet, keine Black to Black 120Hz mit hoher Zeit für das Signalplateau und steilflankigem Signalabfall sind.

Würde man ein 120Hz CRT dagegenstellen, wären keine Unterschiede der Hz Zahlen nach oben hin mehr erkennbar.
Wir haben jetzt noch 2 CRTs in der Firma stehen, die ich dem einen oder anderen technikinteressierten ITler vorsetze. Diese sind regelmäßig erstaunt und schockiert zugleich, welche Rückschritte man in Teilbereichen in Sachen Darstellungsqualität in Kauf genommen hat, für Vorteile in der Ergonomie in Sachen Strahlung, aber eben auch bezüglich Platzverbrauch- und Gehäuseoptik der Flachbildschirme.

Was will ich damit sagen - Die 144Hz, die auf dem Werbeschild eines Monitors prangen, haben nichts mit dem zeitlichen Auflösungsvermögen des Auges bei 144Hz zu tun, was der Vergleich CRT/TFT in beeindruckender Weise zum Vorschein bringt. Letztendlich kann ich diesem Video nicht genug zustimmen:


Somit lasse ich mir eingehen, dass ECHTE 120Hz oder mit komfortablem Sicherheitsspielraum vielleicht noch 144Hz technisch Sinn ergeben können. Alles darüber hinaus halte ich persönlich praxistechnisch für Humbug.

Und wenn jetzt wieder einer mit dem USAF Test kommt, in dem Piloten angeblich Unterschiede von 160Hz und aufwärts wahrgenommen haben - Der ist nach Rückfrage in der Archivabteilung der Airforce nicht bekannt.

Ich hab dort nachgefragt. Ansonsten möge derjenige, der eine Quelle zu diesem Test hat, diesen liefern.
Blurbusters, die meiner Recherche nach dieses Gerücht in Umlauf gebracht haben, haben nie auf meine Anfragen diesbezüglich geantwortet.

Dazu auch:
https://www.computerbase.de/forum/t...e-schritt-lautet-280-hz.1912392/post-23493934

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, adAstra, milliardo und 2 andere
ZeroZerp schrieb:
Das kann er rein Biologisch eben nur, wenn die 120Hz, die man als Referenz bietet, keine Black to Black 120Hz mit hoher Zeit für das Signalplateu und steilflankigem Signalabfall sind.
Das ist übrigens was mich am Marketing BS von Nvidia so stört. Einen 60hz Monitor mit Ghosting einem 240hz Monitor ohne gegenüber zustellen ist witzig, gerade weil in letzter Zeit bei super vielen 144hz+ Bildschirme man gerade dort besonders mit Ghosting zu kämpfen hat. Dazu übersteuert der Overdrive oft auch noch und man bekommt halt etwas das kaum mit dem Signal mehr zu tun hat, das die Grafikkarte eigentlich ausgeben hat. Ist dann Regelrecht cineastisch.


Aber das Problem scheint ja bei den sündhafteuren OLEDs zu verschwinden, zumindest hatte das Eurogamer bei den weiteren Tests mit CRT Schirmen so befunden.Der 4k€ OLED war dann tatsächlich besser als der 20€ CRT. ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
ZeroZerp schrieb:
Mir wäre es lieb, wenn NVIDIA die Grafikkarten sogar noch weiter nach oben staffelt.
Bei Flachbildschirmen regt sich doch auch niemand auf, dass das neue 8K Modell mit 120Hz 5000,-€ kostet
Es würde sich auch niemand aufregen, wenn ein 16K Modell für 15.000,-€ auf den Markt geworfen würde.

Grundsätzlich spricht auch nichts dagegen für die Beste Hardware einen hohen Preis aufzurufen, sich zu wünschen mehr zahlen zu dürfen ist aber ein bisserl komisch. Im High End wird das P/L- Verhältnis zwar weniger wichtig, aber ganz vergessen sollte man es nicht.

ZeroZerp schrieb:
Nur beim PC hat es sich, warum auch immer, eingebürgert, dass High- End oder Enthusiast nichts mehr kosten darf.
Und wenn dann doch mal etwas aus der Art schlägt, ist es gleich Betrug, Abzocke und wie auch immer..
[...]
Das geht sogar so weit, dass viele hier ja quasi persönlich beleidigt sind, wenn der Hersteller ihm die persönlich gewünschte Leistung nicht zum persönlich beliebigen Preis liefert.

Du wirfst da ein paar Dinge durcheinander. Ich hab ziemlich viel in dem Thread gelesen und die Beschwerden haben eher das als schlecht empfundene Preis / Leistungsverhältnis als Ursache, als den Preis per se.

Und das lässt sich ja ganz einfach mit einem Blick auf die Gewinnmargen belegen. Nvidia fährt extrem hohe Gewinne ein, fast 30% des Umsatzes im letzten Jahr.
Als Vergleich dazu AMD, im Q1 2020 hat sich der Umsatz im Vergleich zum Vorjahr um 40% erhöht, der Gewinn verzehnfacht(!) und trotzdem liegt der Gewinn "nur" bei 10% des Umsatzes.

Und das spiegelt sich in den Preisen wieder, die AMD Produkte sind aus Konsumentensicht deutlich attraktiver in der P/L.

ZeroZerp schrieb:
Hegt man auch einen Groll auf High- End- Audiogerätschaften für 100.000€ oder auf Ferrari, weil die Fahrzeuge völlig überteuert sind?

Der Bugatti Veyron kostet astronomische 2 Millionen € und trotzdem macht der Hersteller bei dem Prestigeprojekt pro verkauftem Stück 4,7 Millionen € Verlust. -Worüber soll man sich da aufregen?

ZeroZerp schrieb:
Selbstverständlich zu immer niedrigeren Preisen. Ist doch egal, dass F&E+Fertigung mit jeder Generation schon fast exponential mehr Geld verschlingt.

Stimmt nicht, siehe 30% Gewinn bei Nvidia.

ZeroZerp schrieb:
Dabei ist die Leistung, die man heutzutage für geringes Geld im Computersektor erhält, fast schon überbordend hoch.

Stimmt schon jedes Handy hat mittlerweile die Rechenpower um eine Rakete ins All zu schießen und die allgemeine Verfügbarkeit von High Tech ist unglaublich hoch aber!
Im PC Markt hat sich verhältnismäßig wenig getan. Erstes Beispiel, das mir einfällt:
Um Witcher 3, ein immerhin 5 Jahre altes Spiel, mit Mittelklasse Anforderungen (1440p, 60FPS) spielen zu können, ist immer noch eine Grafikkarte im Preisbereich von 300€ notwendig. Da zieht's mir nicht gerade die Socken aus......
Nur im Einstiegssegment 1080p, 60FPS ist zur Zeit mehr als genug Leistung in sämtlichen Preisbereichen da. Aber da sind wir bei einem 10 Jahre alten Standard....

ZeroZerp schrieb:
Aber diesbezüglich ist der normale User da genau das, was er den Herstellern immer vorwirft -> Gierig.

30% Gewinn im Verhältnis zu den 10% des direkten Konkurrenten (nur im GPU Sektor bei AMD sicher deutlich weniger) kann man nur mit Gewinnmaximierung seitens Nvidia erklären. Und Gewinnmaximierung ist ja bloß ein Euphemismus für Gier.

ZeroZerp schrieb:
Von mir aus kann NVIDIA sein Angebot noch weiter preislich nach oben ausdehnen. Vor allem fand ich früher die option gut, zwischen zwei VRAM- Ausstattungen wählen zu können. Zumal die Preisunterschiede oftmals tatsächlich in der Nähe des Materialpreises des VRAMs lagen.

Das war deutlich Kundenfreundliches Verhalten. Wurde aber auf Grund von Gier eingestellt.
Wenn die Nvidia Karten wahlweise mit dem doppelten VRAM verfügbar wären, würden zwei Dinge passieren die super wären für die Konsumenten aber Nvidia nicht in die mittelfristige Gewinnmaximierung passen.
1. die Langlebigkeit erhöht sich vermutlich. 2. Sie graben ihren Quadro Karten Marktanteile ab, weil's plötzlich eine Alternative gibt.
 
  • Gefällt mir
Reaktionen: Apocalypse
Ich habe mit meiner RTX2080FE bei The Division 2 in WQHD auf Ultra settings zwischen 58 und 110 fps. Meistens so um die 70 fps. Dank Gsync compatible sieht das Bild immer stabil aus. Ich bin damit extrem zufrieden. Also ich bevorzuge immer bessere Optik gegenüber hohen FPS. Als Crysis rauskam hatte ich Athlon 2700 und eine ATI 9700 non pro und habe noch keinen fps counter gekannt. Es lief auf mittleren Settings glaub ich, sah gut aus und ruckelte häufig, so what hab es trotzdem geliebt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Max007 schrieb:
Q4 dürfte der perfekte Zeitpunkt für ein PC-Upgrade sein, 16- Kern Ryzen 4000, Ampere/RDNA 2 mit 16 GB und 64 GB RAM, freu mich auf Q4!
Es hängt ein wenig davon ab, was man noch verbaut hat. Wer nicht noch 2 weitere Jahre auf DDR5 warten möchte, findet diesen Herbst auf alle Fälle mehr als genug Auswahl.

Hoffentlich entsteht eine Konkurrenzsituation im Lager der Grafikkarten.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und andy484848
  • Gefällt mir
Reaktionen: MeisterOek und andy484848
SKu schrieb:
Für eine kolportierte 3090 wären 21% mehr Leistung gegenüber einer 2080Ti aber recht mager. Das wäre weniger als der Sprung von 1080Ti auf 2080Ti.
Das ist ziemlich sicher eine RTX 3080 10 G, welche wohl 30% über der 2080 Ti liegt und somit gegen das schnellste Radeon Produkt antritt.
 
KlaraElfer schrieb:
Das ist ziemlich sicher eine RTX 3080 10 G, welche wohl 30% über der 2080 Ti liegt und somit gegen das schnellste Radeon Produkt antritt.

Wem dem so sein sollte, gehe ich nicht davon aus, dass wir eine "3090" zum Release sehen werden.
 
das größte problem für amd wird glaube ich raytracing werden sowie am anfang tesselation aber wenn big navi auch so schnell wie 3090 wird und billiger hol ich mir vl doch diese. hab nur ein problem mit amd kann ich keine 2880x1620 120hz auflösung erstellen damals probiert mit 5700xt die aich dann gegen 2070s tauschte. und man braucht diese auflösung da 1440p einfach nichts mit 1080p mit der pixelverteilung zu tun hat bei 1620p sinds genau 50% mehr
Ergänzung ()

SKu schrieb:
Wem dem so sein sollte, gehe ich nicht davon aus, dass wir eine "3090" zum Release sehen werden.
wieso?
 
Könnte auch sein, dass der Core nicht auf vollem Boosttakt läuft, wurden ja schon öfter 2,2+ Ghz kolpotiert.
 
KlaraElfer schrieb:
Das ist ziemlich sicher eine RTX 3080 10 G, welche wohl 30% über der 2080 Ti liegt und somit gegen das schnellste Radeon Produkt antritt.
Eine 2080Ti ist bei fast +42% Shadern gegenüber einer 2080S nur ~22% schneller als diese.

Ist daher völlig egal, ob das eine 3080 oder 3090 ist, da letztere nur knapp 21% mehr Shader haben soll. Die Mehrperformance gegenüber einer 3080 (Stock!) wird also so oder so sehr überschaubar bleiben, sollte das hier eine solche sein.

Die +40-50% gegenüber einer 2080Ti für den schnellsten Ampere scheinen sich immer mehr zu bewahrheiten. Vorausgesetzt, dass im 3DMark ist nicht schon eine 3090 oder Titan...
 
Zurück
Oben