Faust2011 schrieb:Ich hoffe, dass es wirklich um einen Launch der Ampere Chips geht... und nicht um eine Weiterentwicklung des Cloud-Streamings, also von Geforce Now.
Das wäre so böse, dass es eigentlich schon wieder grandios wäre.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Faust2011 schrieb:Ich hoffe, dass es wirklich um einen Launch der Ampere Chips geht... und nicht um eine Weiterentwicklung des Cloud-Streamings, also von Geforce Now.
Ja aber diese Grafikkarte hat die Welt ja wahrscheinlich auch noch nicht gesehen.wern001 schrieb:Die machen für eine Grafikkarte einen aufriss als wäre eine Grafikkarte etwas was die Welt noch nicht gesehen hat.
jep sowas habe ich auch flüstern gehört und sowas wie co Prozessor...aber mal schauen bin leider kein Pc NostradamusPS828 schrieb:Das flüstern aus der Zukunft prophezeit für Hopper und RDNA3 ein Chipletdesign.
Mensch, was machst du denn für Sachen?!DennisK. schrieb:Gerade einen Vertrag zur Abtretung meiner Leber unterschrieben. Bin bereit Jensen!
calNixo schrieb:Ich bin gespannt. Mein Geldbeutel auch.
johnieboy schrieb:Und hoffe das AMD nicht bis November braucht bis sie darauf antworten und Nvidia 2 Monate das Feld ohne Gegenwehr überlässt.
Gibt ne Menge Leute die Aufrüsten wollen.
Marcel55 schrieb:Die schreiben Ampere soll der größte Durchbruch des PC-Gaming seit 1999 sein?
wie schon geschrieben von jemanden ist die erste wascheinlich für die Letzte GPU draufgegangenMr. Rift schrieb:Jeder weißt doch, das man eine seiner Nieren für eine neue Nvidia Karte verkauft. Davon hast du immerhin 2.
Ich befürchte den werden wir bei Ampere auch erlebenShoryuken94 schrieb:aber das ist dann höchstens ein Durchbruch beim Thema Stromverbrauch, aber in negativer Richtung.
wolve666 schrieb:Wie sie alle Nvidia das geld in den Rachen stopfen, echt verrückt. Selbst schuld, das Nvidia immer mehr geld verlangen kann, die Lemminge kaufen jeden Müll von denen.
wolve666 schrieb:so wie bei der Vorstellung der rtx Reihe mit ihrem Schrott raytracing...
Marcel55 schrieb:Ich befürchte den werden wir bei Ampere auch erleben
Ampere zieht viele Ampere. Da braucht es nicht mal einen Spitznamen ala Thermi, den liefert NVidia von sich aus.
Es nutzt in der Software etwas, die diese Rendertechnik unterstützt.wolve666 schrieb:Für mich ist raytracing ne unnötige Technik ohne derzeitigen nutzen.
Basiert alles auf DXR - Insofern liegst Du völlig falsch. Dein Argument wird immer von denjenigen gebraucht, die sich 0 mit dem Thema auseinandergesetzt haben und voreingenommen in gewisser Richtung sind.Nvidia wollte damit wieder ein propitäres Alleinstellungsmerkmal Durchpressen, damit sie schön absagen können. So wie mit ihrem gsync..
Zum Glück springt AMD auf den Zug auf. Endlich wieder Fortschritt und Skalierbarkeit in Sachen Computergrafik.Das AMD nun auch auf diesen zug aufspringt, entspringt dem reagieren auf den Markt, leider.
Und daran hat man nicht gesehen, dass es irgendwer mal vormachen musste, damit die Menschheit sehen und erleben kann, welche Vorteile man dadurch erhält? Solang sich am Ende daraus ein offener Standard entwickelt ist doch alles gut.wolve666 schrieb:So wie mit ihrem gsync
wolve666 schrieb:Für mich ist raytracing ne unnötige Technik ohne derzeitigen nutzen
wolve666 schrieb:Nvidia wollte damit wieder ein propitäres Alleinstellungsmerkmal Durchpressen, damit sie schön absagen können.
wolve666 schrieb:So wie mit ihrem gsync..
TorgardGraufell schrieb:Grade mal in die GPU Spardose geschaut vieleicht bekommt man ja schon für 1500 Euro was nettes , das wieder Paar Jahre hält.
Aber dafür überspringe ich ja auch immer eine Gen .
Ich werde mir das dann mal am 1 Sep anschauen...und dann auf die Custom´s warten
Doch- Ist es absolut, da nvidia überhaupt nicht in der Position ist, hier igendjemandem oder irgendetwas "reinzupressen".wolve666 schrieb:aber so wie es nvidia immer wieder versucht, in den markt reinzupressen und n haufen geld dafür verlangt, und dabei diese techniken nur propitär mit ihren karten ermöglicht (wie bei gsync), ist es nicht in ordnung.