News AMD FidelityFX Super Resolution: DLSS-Konter „FSR“ erscheint vielleicht noch dieses Jahr

Falls du die Voodoo1 meinst: 3dfx war hier kein Neueinsteiger. Das Unternehmen war schon vorher im Arcade Bereich unterwegs. Der Erfolg ist aber nicht nur dem Chip sondern vor allem Glide geschuldet gewesen. Wieder ein Beispiel, wie wichtig software ist :)
 
  • Gefällt mir
Reaktionen: Shoryuken94
foo_1337 schrieb:
Falls du die Voodoo1 meinst: 3dfx war hier kein Neueinsteiger. Das Unternehmen war schon vorher im Arcade Bereich unterwegs.
aber doch nicht mit 3d Beschleunigern. 3dfx hat aber auch Glück gehabt.
Zitat Wikipedia:
"Ausgestattet mit knapp 17 Millionen US-Dollar Risikokapital begann 3dfx noch im Gründungsjahr mit der Arbeit an ihrem ersten Produkt, dem Voodoo-Graphics-Chipsatz. Kurz vor dessen Fertigstellung 1996 gab es aufgrund eines Preisverfalls bei EDO-DRAM-Speicherchips plötzlich einen Markt für 3D-Hardware für PCs."

aber das hat sich halt ausgezahlt
 
  • Gefällt mir
Reaktionen: foo_1337
Board partner 6700 xt "almost to the 3ghz level gpu clock i think "

CB TEST RX 6700 XT OC -> Lediglich 116 MHz mehr GPU-Takt waren möglich.


Da hat der AMD Dude im Video wohl falsch gedacht.
 
foo_1337 schrieb:
Das Unternehmen war schon vorher im Arcade Bereich unterwegs.
Laut WiKi war der Voodoo 1 zwar ursprünglich für Arcade geplant wurde dann aber auch sofort am PC released und war ihr erster Grafikchip.
 
  • Gefällt mir
Reaktionen: foo_1337
iNFECTED_pHILZ schrieb:
Wie soll man das Bitteschön denn anders verstehen als dass sie in allen drei von dir genannten Bereichen nicht konkurrenzfähig wären.
Was ist daran misszuverstehen, dass die 6700 XT im Parallel-2021 ein schlechtes Angebot darstellt und AMD dafür erheblich härtere Kritik einsammeln würde?
 
Kev2one schrieb:
Aja wer kennt es nicht, mehrere Tausend Euro für eine 3090 (Stand jetzt) und dann beim Prozessor sparen :confused_alt:

Also, so lange die CPU nicht explizit für irgendetwas nicht reicht behält man sie eben. Ich hatte bis vor kurzem einen i7 4790k für meine RTX 2080. Lief für meine Spiele super. Wenn ich gewusst hätte, dass in meinen Spielen eine 5700 XT schneller ist (mit meiner CPU) hätte ich keine 2080 gekauft. Insofern finde ich das Argument ziemlich schwach.

Mit einem 3600 hat man eigentlich doch keinen Grund zum upgraden, der sollte doch wohl reichen. Da hat Nvidia mMn einfach verkackt.
 
incurable schrieb:
Was ist daran misszuverstehen, dass die 6700 XT im Parallel-2021 ein schlechtes Angebot darstellt und AMD dafür erheblich härtere Kritik einsammeln würde?
Wo steht in unserem Zitat von dir etwas Uber die 6700xt? Du hast über amd allgemein gesprochen ...man man man ,manche stellen sich aber auch absichtlich sturr
 
  • Gefällt mir
Reaktionen: jonderson
Oh man, was für ein Gehate in den ersten 2 Seiten. Die Leute, die jetzt auf Primitive Shaders verweisen, muss man mal entgegenhalten, dass wir immer noch auf einen Tensor-basierten Denoiser in Spielen von Nvidia warten. Der wurde auch mal versprochen bzw. mindestens angedeutet.

Wieviele hier haben verstanden, dass AMDs CDNA bereits Matrix Compute Units besitzt die die Geschwindigkeit der 1st Gen Tensor-Cores haben? Wahrscheinlich steht die Entscheidung, ob diese in RDNA3 Einzug halten noch aus und werden maßgeblich von den Anforderungen von FSR abhängig.

Im schlimmsten Fall kommt dann ein FSR, dass auf RDNA2 auf ML verzichtet, aber selbst das ist ja noch nicht gesagt. Außerdem geht AMD den Weg und springt direkt auf DLSS 2.0. Auch das darf Zeit dauern.

Dass FSR dann erst 1 Jahr nach der Ankündigung kommt, ist natürlich trotzdem ärgerlich und zu kritisieren.
 
  • Gefällt mir
Reaktionen: Fuchiii und bad_sign
flappes schrieb:
Der Fokus lag zu sehr auf wissenschaftlichen Berechnungen und weniger auf Gaming. Man hatte wohl gehofft, dass die Rohleistung für den wissenschaftlichen Einsatz genug über lässt, damit auch Gaming gut läuft. Fataler Irrtum wie wir wissen. nvidia hatte da viele Jahre leichtes Spiel.

Man hatte einfach nicht die Mittel zwei getrennte Architekturen zu entwickeln für Compute und Gaming. Und soo schlecht war GCN nicht. Jetzt dann zum Schluss war GCN natürlich ausgelutscht, aber zu 290X Zeiten und so waren sie mehr als auf Augenhöhe von der Leistung her. Mit AMDs Mitteln hat man eben versucht, eine Architektur zu Bauen, die in Compute gut ist und in Gaming auch. Das ging wenn man ehrlich ist auch eine Zeitlang recht gut besonders in Spielen mit low lvl API hat GCN nochmal ganz gut zugelegt.

Viele Vergessen, dass AMD buchstäblich kurz vor dem Bankrott stand. Auch hier im Forum kamen immer wieder Kommentare, dass AMD eh nicht mehr lange am Markt ist etc. Und jetzt ist man erbost, wenn AMD nicht mit den ganzen vielen kleinen Features der Konkurrenz mithalten kann.

flappes schrieb:
AMD ist hier bei den Features gute 2 Jahre im Rückstand. Ich erwarte daher auch keine Wunder. Aber AMD hat mit Ryzen gezeigt, dass man bei konsequenter Arbeit, trotz weniger Geld, gute Produkte liefer kann.

Ja eben mit Ryzen hat AMD gezeigt, dass sie gute Produkte liefern können. Sind aber auch "nur" gute Produkte. RDNA GPUs sind auch gute Produkte. Aber wenn man eben deutlich weniger Ressourcen hat wie beide Konkurrenten, dann setzt man natürlich die Prioritäten erstmal auf gute Produkte und stellt so Feature Beiwerk erstmal hinten an.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
flappes schrieb:
AMD hat in der Vergangenheit falsche Prioritäten gesetzt, das ist ja nichts unbekanntes.
Beispiele: HBM Speicher als Heilsbringer. Oder GCN, welches die Rohleistung nicht auf die Straße bekommen hat.

HBM zahlt sich auch aus und ist ziemlich gefragt. Macht auf Spielekarten nur halt wenig Sinn. Bei CDNA nutzt man es auch weiterhin. Und in vielen anderen Bereichen nutzt man es auch. Würde nicht sagen, man hat da auf das falsche Pferd gesetzt. Man hat nur die technischen Vorteile nicht im Consumermarkt nutzen können. Aber alle HBM Consumerkarten waren auch Ableger von HPC karten.

flappes schrieb:
Oder GCN, welches die Rohleistung nicht auf die Straße bekommen hat.

Stimmt so auch nicht pauschal. GCN ist eine extrem vielseitige Architektur welche grandios skalierbar ist und sowohl im Computebereich ziemlich stark ist, als auch im Gäking Bereich nicht schlecht war. Du kannst mit einer einzelnen Architektur nicht alle Bereiche zu 100% abdecken. GCN hat sich in vielen Bereichen aber sehr gut geschlagen und war ziemlich ausgearbeitet. Wenn man mal schaut, wei heute Kepler dasteht, da war GCN der deutlich innovativere Ansatz, mit viel Entwicklungspotential. Beim Ressourcenstand von AMD in der zeit ein genialer Ansatz.

flappes schrieb:
Fataler Irrtum wie wir wissen. nvidia hatte da viele Jahre leichtes Spiel.

Ganz schön überdramatisiert. AMD war in vielen Bereichen nicht schlecht aufgestellt. Gegen Kepler hat sich AMD sogar recht ordentlich geschlagen. Gegen Maxwell haben sie sich auch noch ganz okay behauptet, hier war eher die Effizienz das Problem und die Zeit. Gegen Pascal hatte man dann nur noch bis zur Mittelklasse alternativen aufzufahren und massive Verspätung bei den großen Chips, die in einem miesen zustand gestartet sind.
flappes schrieb:
AMD musste umschwenken, daher RDNA und weniger "hippe" Technik wie HBM, sondern old school GDDR

Ich würde RDNA2 nicht als weniger "hipp" ansehen. Ganz im Gegenteil Das ist eine ziemlich moderne Architektur mit jeder menge netter Ideen. Der IC geht ziemlich gut auf und war eine tolle Idee, die Takteffizienz ist ziemlich erstaunlich und auch das Featureset ist gut aufgestellt.

Wir sehen eher endlich die finanziellen Früchte der letzten Jahre. Mittlerweile ist AMD in der Lage auch wieder getrennte Entwicklungen für den Compute und den Consumerbereich zu unterhalten und ein Chip muss nicht für mehrere Anwendungen herhalten. Entsprechend kann man auch die Konfigurationen so wählen, dass sie für jeden Einsatzbereich passen und muss keine Kompromisslösung eingehen.

Die aktuelle Baustelle heißt ganz klar Software. Ob AMD hier aufholen kann, wird sich zeigen. Hier gab es bislang keinen "Ryzen" Moment. Eher im Gegenteil. Mit RDNA1 hat man nicht mal gut funktionierende Treiber auf den beine gestellt bekommen. Was FSR taugt, abwarten. Ich bin noch etwas verhalten. Für mich klingen die Aussagen bisher nach zu viel heißer Luft und PR. Ob das Endprodukt überzeugt? Die Hoffnung ist da, aber auch eine gesunde Skepsis, bis man mal wirklich etwas dazu zeigt.

Nvidia beweist einen großen Innovationswillen mit entsprechenden Budgets. In dem Punkt läuft AMD aktuell noch ziemlich hinterher.
Jesterfox schrieb:
Ich geh sogar soweit zu behaupten ohne den Vorstoß von AMD hätten wir jetzt auch kein DirectX 12.

Schwer zu sagen, ich glaube aber schon. Die Ursprünge dazu stammen nämlich aus der Konsolenentwicklung, wo man schon deutlich früher auf Low Level APIs gesetzt hat und spiele deutlich hardware näher programmiert sind. Ich denke hier hat Microsofts längerfristiges Bestreben im Gamingmarkt groß Fuß zu fassen für den nötigen Anstoß gesorgt. Mantle war aber sicher ein Katalysator, der dem ganzen einiges an Schwung gegeben hat.
 
  • Gefällt mir
Reaktionen: Xul und Maggolos
Shoryuken94 schrieb:
Ich denke hier hat Microsofts längerfristiges Bestreben im Gamingmarkt groß Fuß zu fassen für den nötigen Anstoß gesorgt. Mantle war aber sicher ein Katalysator, der dem ganzen einiges an Schwung gegeben hat.
Das Bestreben kam bei MS aber erst in letzter Zeit auf... damit wäre wohl auch DX12 doch noch gekommen, aber mit einigen Jahren Verzögerung.
Shoryuken94 schrieb:
HBM zahlt sich auch aus und ist ziemlich gefragt. Macht auf Spielekarten nur halt wenig Sinn.
NVidia nutzt auf ihren großen Compute-Chips ja auch HBM. Für Gaming war er halt zu teuer und zu schlecht verfügbar, das hat viel ausgebremst. Aber grad deshalb mag ich irgendwie meine R7 und werd sie nicht hergeben, auch wenn ich aktuell das doppelte von ihrem damaligen Preis dafür kriegen könnt...
 
Hier glauben einige immer noch AMD sei Mutter Teresa.
Ich kenne etliche Leute die eine 3080 zu UVP anfangs und gut bis 2 Monate nach Launch zur UVP gekauft haben aber ich kenne wirklich keinen Einzigen der eine 6800XT kaufen konnte und auch im Forum scheint man die Leute an einer Hand abzählen zu können.6900XT ging aber ;)Egal wieviel schlechter oder schwieriger es AMD gegen NV und Intel hat,hohe UVP auf selben Level ohne ein "Aber" (fehlende Features,unausgereifte Bios etc.) zum Konkurrenzprodukt zu sein können sie aber.Ich finde ehrlich gesagt das gesamte Lineup von AMD von CPU zu GPU selbst zu UVP für überteuert abgesehen vielleicht von Alleinstellungsprodukten wie 5900/5950,die man aber nicht ausliefert und pusht um (unanständig) höhere Preise zu erzielen.Bei den realen Grafikkartenpreisen stehen sie NV prozentual gesehen auch in Nichts nach.
Ich wette würde AMD die Position von NV&Intel übernehmen würde es den Gamern finanziell viel mehr schmerzen,zuviele Komplexe und Niederlagen der Vergangenheit sind zu kompensieren.Die aktuellen UVP bestätigen mich darin,dass dies ein Vorgeschmack sein könnte.
Ich habe jetzt seit etlichen Jahren mal aus Neugierde ein komplettes AMD System privat aufgebaut was nicht günstig war und werde mich hoffentlich noch positiv überraschen lassen was die Features angeht.Bisher hat mich der Gegenwert zum finanziellen und Frickel-Einsatz nicht besonders überzeugt oder ein Argument geliefert andere Produkte nicht mehr in Betracht zu ziehen.Aber ich lasse mich gerne positiv überraschen ,schliesslich habe ich mir das selbst ausgesucht.
 
foo_1337 schrieb:
Ich für meinen Teil unterstelle hier AMD keine Unfähigkeit, sondern einfach Mangel an Erfahrung, ganz einfach. Das ist auch evident, da sie in dem Thema sehr spät dran sind und die letzten Jahre einfach die Kohle dafür gefehlt hat.
Dafür gibt es Bankkredite oder staatliche Förderhilfen, wer gute Konzepte in der sogenannten freien Markt oder doch nur korrupt agierenden Kapitalwirtschaft vorlegt. Wer gute Produkte hat, der kann durch gute Verkaufsargumente beim Endkunden überzeugen oder etwa doch nicht?

AMD fehlt keine Erfahrung neue Technologien einzuführen, die die Konkurrenz am Ende ja doch verfeinert oder AMD selbst sich am intel Optane Ansatz mit einem StoreMI versucht. Die AMD/SKHynix HBM Entwicklungen wird dagegen mittlerweile bei nvidia und intel groß eingesetzt. Die 150€ für eine saubere, gestapelte DRAM Lösung sieht sogar ein Techniklaie, wenn er entsprechende Karten mal laufen sieht und wenn Präzisionstechnik immer feiner wird um die Leistungen zu verkaufen, steigen natürlich die Ausbildungsanforderungen. Wer das als Unternhmen vernachlässigt, braucht sich nicht wundern auch zwei linke Hände einzustellen.

Ich habe letztens mein alte Xonar Essence ST doch noch repariert bekommen und habe trotz Lupenlampe mit guter Ausleuchtung über schwarzen Lötstopplack geflucht. Nachhaltige Reparaturen werden zeitaufwendig durch Sichtbehinderung erschwert und mittlerweile laufen Reparaturen feiner Schaltungen unter einem Mikroskop ab. Die Fingerfertigkeit ist trotzdem nötig, weil es selbst in einer Entwicklungsabteilung bei Prototypen auf den Menschen als Macher und Problemlöser ankommt, selbst wenn Präzisionswerkzeuge die erweiterte Hand des Menschen werden. Die Kompetenz liegt beim Menschen zu verstehen, was er da macht.

Warum AMD bei der RX6800/6900 USB-C verbauen musste, zeigt wie man in diesem Unternehmen mit den so knappen, verfügbaren Ressourcen umgeht und welche ausgebildeten Entscheidungsträger das Sagen haben. Ich hätte mir etwas mehr sauber umgesetztes USB auf dem Mainboard gesehen und nicht auf der Grafikkarte. PCIe 4.0 einführen, mit OC als Leistung für eine Kundengruppe werben und dann mit AGESA die JEDEC und PCI-SIG überstrapazierten Spezifikationen bei den eigenen Produkten ausbügeln müssen. Wenn der Produktionsstandard nicht mal DFI Lanparty OC Produkten gerecht wird.

Ich würde AMD sogar unterstellen Kunden mit Leistungswerten außerhalb der Normen zu verkaufen.
Ich habe mit AGESA 1.0.0.4 keinen sauberes Ryzen Energiesparplan auf dem ZEN 2 mit einer sauberen Windows 10 Installation. Diese BIOS AGESA Update zerschoss übrigens eine PCIe Steckkarten Funktion am X470 Chipsatz angebunden, die jetzt am X570 I/O DIE hängt und die VEGA 56 nur mit x8 angesprochen wird. Qualitätssicherung sieht anders aus, wenn nicht mal mit aktuelleren BIOS Updates ein Flashback auf ältere BIOS Versionen laut ASRock möglich ist. Für eine Fehleranalyse ist ein sauberes Zurücksetzen immer noch eine Grundvoraussetzung die Kontrolle als Nutzer zu haben um Schritt für Schritt darauf aufzubauen.

Der BIOS Chip ist für diesen Zweck auch wie mittlerweile fast überall anzutreffen nicht mehr gesockelt, sondern verlötet und nicht jeder hat eine teure USV, könnte aber das ROM manuell programmieren.

Es sagt viel darüber aus, wenn ein Technologieunternehmen sogar sichere und grundlegende Schritte für eine sichere Fehleranalyse einfach mal auf Hardwareebene einsparen lässt und ich entweder rum löten muss oder beim Kundendienst erst anfragen wie was kompatibel ist, weil AM 4 ein Datengrab an Datenblättern ist.

Da kommt AMD mit einer FSR Lösung.

@Otsy
Wer mal die Topaz A.I. Bildverbesserungen ausprobiert hat, wird DLSS wert schätzen.
In Topaz war die CUDA Beschleunigung schnell integriert, wo AMD Karten über OpenCL außen vor standen.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Eine schöne Gegenüberstellung der AMD und Nvidia Architekturen und der Ansätze.

"The biggest difference that is immediately obvious while comparing the RT Cores and the Ray Accelerators is that while both of them perform their functions fairly similarly, the RT Cores are dedicated separate hardware cores that have a singular function, while the Ray Accelerators are a part of the standard Compute Unit structure in the RDNA 2 architecture."
Den Artikel habe ich mir eben durchgelesen. Ich warne davor, irgendwas davon für bare Münze zu nehmen. Außer natürlich der Aussage, dass Nvidia zurzeit die höhere RT-Leistung hat. Aber der Artikel ist voll von Spekulationen und zu vielen Vereinfachungen.

Alleine das Patent zu RT, dass AMD 2019 veröffentlicht hat, widerspricht einigen Behauptungen in dem Artikel.
 
Jesterfox schrieb:
Aber nicht unmöglich... 3DFX hat damals als Neueinsteiger mit ihrem ersten Grafikchip auch gleich erst mal alles was es bisher an 3D Chips am Markt gab völlig zersägt...
...und darüber hinaus in vielen Feldern der Grafiktechnologie wichtige Pionierarbeit geleistet.

Aber da war damals alles noch neu und große Sprünge deswegen möglich, weil die Technik
noch nicht so gut erforscht war bzw. in den Kinderschuhen steckte. Heute leben wir in einer
Zeit von kleinen inkrementellen Steigerungen von Jahr zu Jahr. Und das schon bevor Nvidia
3Dfx geschluckt und AMD ATI gefressen hat. Auf mich wirkt das alles aktuell eher wie ein
Fuß gemütlich vor den anderen und nicht wie ein Rennen. Schau dir die Benchmarks an.
Hier mal 10% schnller, da mals 10% langsamer (wenn man mal die X080Ti Karten weglässt).

Man darf natürlich gerne daran glauben, dass AMD mit ihrer Technik jetzt Bäume ausreißen
wird, aber so hab ich die Entwicklungen der letzten Jahre nicht wahrgenommen und bin
daher eher verhalten skeptisch, was diese ganzen tollen, neuen "Gamechanger" angeht.
Auch SAM hat sich toll angehört, ist aber wie DLSS, RT etc. einfach stark vom Spiel abhängig.
 
  • Gefällt mir
Reaktionen: foo_1337
Rofl...

Was manche hier wieder fuer einen Stuss absondern...

@Tornavida Nette Glaskugel bzgl wie eine Zukunft mit einem starken AMD aussehen wuerde. Pures Comedy Gold. Kleine Frage haette ich dann doch noch: Du schreibst da in Klammern von Bios-Problemen. Koenntest Du da bitte konkreter werden?

@B3nutzer Du beschaeftigst Dich wohl noch nicht lange mit Hardware. Gibt da paar Innovationen seitens AMD, welche Du wohl (absichtlich) verdraengst. Diese Geschichte um resiezbale BAR sollte doch auch bei dir als Neuling angekommen sein. Andere Innovationen die mir von AMD spontan einfallen: Einfuehrung des IMCs bei x86 CPUs, dieses unwichtige x86-64, welches wir alle nutzen, usw...
 
borizb schrieb:
Aber da war damals alles noch neu und große Sprünge deswegen möglich, weil die Technik
noch nicht so gut erforscht war bzw. in den Kinderschuhen steckte.
ML / neuronale Netze und was man damit wirklich alles anstellen kann ist auch noch relativ neu und um darum geht es ja bei DLSS / FSR. Mein Paint Shop Pro hat mit dem diesjährigen Upgrade auch einen KI-Upscaler für Bilder bekommen, ist schon ganz interessant was da auf Basis eines Einzelbildes geht.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Shoryuken94 und Colindo
Der offene Ansatz und das Vorhaben, den Rekonstruktionsfilter gleich für alle Spiele und nicht nur vorab optimierte verfügbar zu machen, nehmen demzufolge besonders viel Entwicklungszeit in Anspruch.
In wiefern soll ein offener Ansatz mehr Entwicklungszeit in Anspruch nehmen als ein Geschlossener?
Wo steckt da der Mehraufwand?

Den Rest kann ich verstehen, aber ob es nun offen oder geschlossen ist sollte nun wirklich keine Rolle spielen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben