M-7MkF7-D
Lieutenant
- Registriert
- Aug. 2019
- Beiträge
- 941
??? 3070 FE UVP 499€ und 8GBLencoX2 schrieb:Hab ich was übersehen, oder stand da nix von RAM und Preis?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
??? 3070 FE UVP 499€ und 8GBLencoX2 schrieb:Hab ich was übersehen, oder stand da nix von RAM und Preis?
Du schriebst nicht dazu, dass Du die 2080TI als Referenz nimmst. Von der 2080TI war Deinerseits erst die Rede, als Du sie in Verbindung mit der 2070 gebracht hast.Benji18 schrieb:aja gut das du die 3080 mit der 2080 vergleichst und nicht wie ich mit der 2080ti ....
bugmum schrieb:Wie immer. Keine Ahnung was ihr euch in Argumente verrent. Das sind Hersteller Benchmarks. Quasi BestCase.
.Sentinel. schrieb:Du schriebst nicht dazu, dass Du die 2080TI als Referenz nimmst. Von der 2080TI war Deinerseits erst die Rede, als Du sie in Verbindung mit der 2070 gebracht hast.
Es wird ja hier die Glaubwürdigkeit von nvidia und deren Aussagen in Frage gestellt, dass sie "viel schneller sei".
leipziger1979 schrieb:Naja, solange AMD nur spricht und nicht mal im Ansatz irgendwas liefert braucht sich Nvidia keine Sorgen machen.
Was für blödsinn das wieder ist. Wo ist die 3080 nur 15-20% schneller.Benji18 schrieb:weils bei der 3080 auch geheißen hat die ist viel schneller im schnitt sinds aber nur 15%-20% daher gehe ich davon aus das nur cherrypicking die 3070 vor der 2080ti zeigen und diese im mittel wahrscheinlich 10% drunter ist. Wobei preislich gemessen an der Leistung stand jetzt durchaus noch ein kracher.
Die einzigen "Fakten" die man hat sind die Benchmarks von Nvidia, und laut denen liegt man in Summe knapp über der 2080Ti in den Spielen die dort angegeben wurden.Lefty220 schrieb:Nochmals alles was man jetzt gelesen und gehört hat, zeigen das die 3070 schneller ist wie die 2080ti, da kannst du sagen was du willst. Die Fakten sprechen halt für sich.
Lefty220 schrieb:Was für blödsinn das wieder ist. Wo ist die 3080 nur 15-20% schneller.
Wie kommt man auf 10% weniger zur 2080Ti. Nochmals alles was man jetzt gelesen und gehört hat, zeigen das die 3070 schneller ist wie die 2080ti, da kannst du sagen was du willst. Die Fakten sprechen halt für sich.
So lange man den neutralen Test hier nicht mit eigenen Augen sieht, sind solche Rechnereien halt auch nicht viel mehr als ein witziger Zeitvertreib für Leute wie uns. Hier ist ein anderes, betrachtet man die Rohleistung pro SM (nicht pro Cuda Core), dann steht nur ein 5%-iger Taktvorteil für die 3080 im Raum bei ansonsten gleicher Anzahl an SM (68 zu 68). Sprich pro SM ist Ampere bei der 3080 ca. 25% schneller als Turing bzw die 2080ti (bei der 3090 sind es nur ca. 20%, wohl gemerkt alles auf Basis der 4K Gaming Werte). Überträgt man das jetzt auf die 3070 wäre diese ebenfalls 25% schneller pro SM und dann kommt auf 20% plus zur 2080 FE, das wären nur 2% hinter der 2080ti. Was ich damit sagen will ist, man kann viel und lange rechnen und am Ende kommt man immer auf etwas verschiedene Werte. Einzig und alleine der ungefähre Rahmen von -10% zu +5-10% zur 2080ti lässt sich da erkennen.Taxxor schrieb:Damit entsprechen die 30TFLOPs der 3080 ca 19-20 TFLOPs von Turing.
Dieses Verhältnis auf die 20 TFLOPs der 3070 umgerechnet, liegt man hier ca bei 13 Turing TFLOPs und das sind ca 10% weniger als die 2080Ti.
Zwirbelkatz schrieb:Scheint, als bekämen wir bei gegebener Marktverfügbarkeit interessante Konkurrenzsituationen, sowohl im CPU- als auch im GPU-Markt.
nun wenn du das blödsinn nennst, dann machen auch andere firmen eben blödsinn. btw nvidia kann es sich leisten durch seine momentane marktbeherrschung in diesem berreich. ich glaube nicht, das nvidia sich vor amds 6000er reihe fürchtet. die gpus vorher waren jetzt auch nicht wirklich der knaller bzw konnten nvidia nicht in bedrängnis bringen.legenddiaz schrieb:Das ist totaler Blödsinn.... aber bleibt mal weiter bei eurer Meinung.
Außerdem geht der mehrgewinn bei einem UVP von 699€ an die Händler und nicht and NVIDIA...
1-2 Monate vor den Release der Next Gen Konsolen und AMD Grafikarten, die Karten so künstlich zurück zu halten, wäre wohl das dümmste aller Zeiten.
Die Masse macht es aus, der Hype war da. Die Leute hätten noch vor AMD, Nvidia die Karten aus den Händen gerissen. Es gibt so gut wie keine Karten im Handel, weil einfach zu früh gelauncht wurde und die Produktion erst am laufen ist.
Super Firmenstrategie. Am besten noch warten und die künstliche Verknappung noch nach AMD und den Konsolen zu verzögern. Macht sinn...
Warum betreibt dann Nvidia die 3080 und die 3090 nahe der Kotzgrenze, um möglichst viel Leistung rauszuholen? 🤔feidl74 schrieb:ich glaube nicht, das nvidia sich vor amds 6000er reihe fürchtet.
Gegenfrage zur Gegenfrage: Warum macht Nvidia es dann erst jetzt, wo man bei Turing und Pascal deutlich weiter weg vom Maximum geblieben ist?.Sentinel. schrieb:Gegenfrage:
Wieso sollte man das Silizium nicht ausreizen und Leistung auf der Straße liegen lassen, die sich ein Großteil dann sowieso über Overclocking wieder reinholt?
damit du fragen darfst... Wer weiss das schon, aber naheliegend ist keine der möglichen Antworten, da weder die neuen AMDs und ihre Leistung wirklich bekannt sind und weil nvidia dies nicht kommuniziert. Alles kann, alles muss nicht...Taxxor schrieb:Gegenfrage zur Gegenfrage: Warum macht Nvidia es dann erst jetzt, wo man bei Turing und Pascal deutlich weiter weg vom Maximum geblieben ist?
Ahja, dann Belege es auch... Das werden sie sicher auch können, nun musst du die Korrelation zwischen dem und deiner Behauptung auch untermauernTaxxor schrieb:@DeltaPee Naheliegend ist, dass Nvidia die Leistung der neuen AMD GPUs schon einigermaßen einschätzen kann.
Habe ich geschrieben es ist ein Fakt? Es ist naheliegend, da die technischen Daten von Big Navi schon monatelang im Internet kursierten, und wenn wir als normale Internetnutzer was davon mitbekommen, dann kannst du davon ausgehen, dass eine Firma wie Nvidia davon schon weit vorher wusste, da die natürlich auch die Konkurrenz beobachten.DeltaPee schrieb:Ahja, dann Belege es auch...
Weil es immer irgendwann den Punkt gibt, wo man ein Feature, eine Funktion oder wie in diesem Falle eine die GPU ausreizende Sensorik einführt?Taxxor schrieb:Gegenfrage zur Gegenfrage: Warum macht Nvidia es dann erst jetzt, wo man bei Turing und Pascal deutlich weiter weg vom Maximum geblieben ist?
Das wäre zumindest eine plausible Vermutung. Die 3080 muss vielleicht die Konkurrenz auf Abstand halten...Taxxor schrieb:Hier sieht es also danach aus, als erwartet Nvidia von AMD eine Karte, die im Bereich der 3080 liegt, und geht mit diesen letzten 3-4% nochmal sicher, dass sie möglichst etwas drunter als