News Mozilla Firefox erhält GPU-Beschleunigung

richtigerweise gar nicht, da das eine Funktion der Desktop-Umgebung ist - warum sich Microsoft erlaubt, den Schalter dafür für Desktop und IE doppelt anzulegen, weiß ich nicht.

Im Browser eine andere Kantenglättungseinstellung zu nutzen, als auf dem Desktop, finde ich zumindest merkwürdig. :p (dass man aliased Schriftarten hübscher als antialiased finden kann übrigens auch)
 
Zuletzt bearbeitet:
Naja, ich habe auf dem Desktop Cleartype aus, die FF Alpha benutzt es aber trotzdem (reagiert auch auf die Cleartype Einstellungen in der Systemsteuerung). Auf meinem SPVA ist Cleartype allerdings immer unscharf und deshalb würd ich's gerne separat ausmachen.
 
Zuletzt bearbeitet: (Link2 lief zur XP only Online-Version, hab ich geändert in einen, der auch mit Vista laufen sollte)
Jup, denn Cleartype berücksichtigt das Subpixel-Muster des Bildschirms für die Darstellung. Dein SPVA-Panel wird einfach ein anderes verwenden als üblich.

Hier mal ein Bild:
 

Anhänge

  • cleartype_subpixel_pattern.png
    cleartype_subpixel_pattern.png
    3,5 KB · Aufrufe: 566
Zuletzt bearbeitet:
Der reviewer da übertreibt maßlos - ich habe einen S2031W-E vor der Nase, das ist sozusagen der "kleine Bruder" deines Bildschirms (20" statt 22") und mit der richtigen Einstellung ist der Text definitiv schärfer als auf meinem alten CRT. Wie der Reviewer auf irgendeinem VGA-D-Sub-CRT ein schärferes Bild gesehen haben will, ist mir absolut schleierhaft - das ist ganz einfach Blödsinn, schärfere CRTs gab es nur mit BNC-Anschluss ab 3000 DM aufwärts. Es gibt S/H-IPS-Panels die schärfer sind, aber auch mehr kosten und dafür schwarz nicht so gut können, aber so unscharf ist das Bild hier nun wirklich nicht.

Ja, es gibt schärfere Panels, aber imho sind sämtliche CRTs mit D-Sub-Anschluss deutlich unschärfer - und das Thema betrifft allgemein auch nicht nur ClearType. ;)

P.S.
Hab noch zwei kleine Bildchen angehängt, zum Vergleich von ClearType off und on auf meinem S2031W-E - weiß nicht, obs was bringt, weil nur Handyfoto.
 

Anhänge

  • cleartype_s2031we_off.png
    cleartype_s2031we_off.png
    282,5 KB · Aufrufe: 547
  • cleartype_s2031we_on.png
    cleartype_s2031we_on.png
    260,2 KB · Aufrufe: 531
Zuletzt bearbeitet:
Google wird doch schon zackig genug dargestellt, zumindest die Suchmaschine. Bei den anderen Dingen bin ich mir nicht sicher.
 
@BPhoenix: Du meinst also Compositing. Natürlich geht das, aber wie "ein einzelnes Objekt erzeugen"? Da Webseiten relativ statisch sind macht die Erzeugung der Boxen einen Großteil des Aufwands aus. Wenn das wieder auf der CPU passiert gewinnt man nichts. Dann doch lieber alles in Polygonen modellieren, das kann die GPU auch allein.

€: Wobei... ob es überhaupt einen Vorteil hätte, wenn man für jede Box eine einzelne Textur erstellt und an die Graka schickt, statt sie einfach (inkl. Verdeckungsberechnung) direkt im Fenster zu zeichnen? Ich glaube nicht.
Das einzige was die CPU wirklich machen muss ist es Daten in den Speicher der Grafikkarte zu schreiben, also Bilder und Informationen zum verarbeiten und natürlich das programmieren der Shader, also im großen und ganzen lediglich Initialisierungsarbeit leisten. Den gesamten Rest also das erzeugen von Objekten (egal ob extra 3D Objekt, als Pixel in einer Textur, oder sonst wie), das verändern von Objekten (verschieben, zoomen, verzerren, usw.), das Anwenden von Effekten (Transparenz, Gammawertanpassung, Anti Aliasing (gerade bei Schriften), usw.) und ähnliches kann die Grafikkarte mit kleinen Shaderprogrammen alles selbstständig erledigen.

Durch die große Anzahl an Recheneinheiten kann das sogar um ein vielfaches schneller erledigt werden, abgesehen davon, dass gerade für solche Aufgaben eine Grafikkarte entwickelt wurde.

Und falls du jetzt denkst, dass die CPU ach so viel machen muss weil sie Daten in den Grafikspeicher laden muss, musst du bedenken dass sie das am Schluss ohnehin tun muss, da die Grafikkarte sonst nix auf dem Bildschirm anzeigen würde, einzig das verarbeiten der Daten würde von der CPU welche hierfür eigentlich nicht so richtig geeignet ist auf die GPU verlagert werden.
 
Complication schrieb:
Sorry Stebs, aber irgendwie legst du mir schon wieder Worte in den Text die ich nicht geschrieben habe:
Ich habe nicht behauptet es würde DX10.1 Hardware benötigt, sondern lediglich, dass um es auf der Hardware zu nutzen diese DX10.1 fähig sein muss - ansonsten wird es eben CPU-lastig im Treiber ausgeführt.
Ebenfalls sorry, aber ich hab dir schon geschrieben dass dem nicht so ist.

Ich habe das auch nicht irgendwo auf geschnappt sondern hier nachgelesen:
http://blogs.msdn.com/directx/archive/2009/08/26/directx-componentization-and-interoperability.aspx

Und daraus geht ganz klar hervor, dass der Geschwindkeitsvorteil daraus resultiert, dass keine Synchronisation mehr zwischen CPU/GPU stattfinden muss - aber halt nur dann nicht wenn die GPU-Hardware 10.1 auch selber abwickeln kann. Ansonsten geht das zwar auch mit GPU-Hardware die DX9 kann aber es wird eben doch wieder zurück an das OS kopiert um die Befehle abzuwickeln.
Wenn du das genau liest, wirst du feststellen dass da immer von DX 10.1 API die Rede ist, und NICHT von GPU-Hardware 10.1, das ist ein entscheidender Unterschied!

Hier z.B:
"The legacy runtimes were not the best at working together. D3D10.0 had no way to talk with GDI."
Das Problem lag in der DX 10 Runtime und nicht in der Hardware.

Da steht doch eben gerade "Though older PCs with pre-D3D10 graphics cards and WDDM 1.0 drivers will not show significant improvements"

Nvidia hat WDDM 1.1 Treiber für Windows7 für alle DX10 Karten -> Damit gibt es also keine Probleme rsp. keinen Geschwindigkeitsnachteil.

Es bleibt dabei, dass Grafikkarten die kein DX10.1 haben aufwärts nicht signifikant profitieren von diesem Direct2D Feature, da diese es über den Umweg GDI emulieren müssen
Eben nicht, wie gesagt, es ging immer um die "alte" 10.0 API die da manches nicht konnte. Der Hardwareunterschied zwichen 10.0 und 10.1 ist ja vorallem die Gather4-Funktion, die führt bei manchen Sachen durchaus zu Performancevorteilen gegenüber 10.0 (mich bitte nicht in die "10.1 Hardware ist sinnlos"-Ecke stecken), aber für Direct2D bringt das nichts.
Das ganze Geheimnis ist also eine aktuelle Runtime und aktuelle Treiber (WDDM 1.1)
Gruß, Stebs
 
mal ne bescheidene anfrage an alle experten hier. ob nun ( wie früher ) die cpu den strom verbraucht, oder ab demnächst die grafikkarte...soweit ich sagen kann ist doch die TDP einer graka höher, oder nicht? also gewinne ich: leistungszuwach durch höheren stromverbrauch ? oder wie läuft des.
 
Also mit dem neuen FF sieht die Schrift ganz anders aus, eher schlechter :/

Insgesamt läuft der FF auch schleppend (Also Seitenaufbau rast, aber Menüs etc sind laaaaaaaaaaaaaaaaangsam ^^)

Zusammenfassend:

Ja es ist ne Alpha.
Bei meiner CPU emrke ich kaum/keinen Unterschied beim Rendern von Google und CB.

Sicherlich werden noch nen paar Bugfixes kommen ^^
 
Zuletzt bearbeitet:
Die Schrift sieht total dick, unscharf und fransig aus. Kein Wunder, dass es ne Apha ist.

Die dient wohl NUR zur Demonstration der Technik. Nen Vorteil konnte ich jetzt nicht erkennen. Ich hab zwar DSL Light. Aber wenn ich Twitter ein zweites mal aufrufe, wird die Seite aus dem Cache geladen und ist sofort ohne Verzögerung oder Aufbau da.

Und das sieht im 3.5, 3.6 und im 3.7 EXAKT gleich aus. Kein Unterschied. Man sieht nicht, dass sich was schneller oder langsamer aufbaut. Es ist beides sofort da. Man sieht für den Bruchteil einer Sekunde was weißes und dann ist die Seite da. Bei allen 3 genau gleich.


Für den normalen User ist die Alpha absolut untauglich. (So wies sein soll^^)
 
Zuletzt bearbeitet:
Ich hoffe, der Browser macht schon sehr bald Gebrauch von der GPU und das es auch mit älteren Grafikkarten funktioniert. *träum* Ich denke, das bringt vorallem etwas bei nutzlosen Flash-Animationen auf ultramodernen Homepages. Und je mehr sich das durchsetzt, desto aufwändiger werden die Internetseiten gestaltet werden.
 
So neu ist dieses verfahren gar nicht, Opera arbeitet schon seit geraumer Zeit an so einer Lösung.

Hier mal ein kleiner Auszug aus einen Beitrag bei Golem.de:

„Außerdem hat Opera die Vektor-Grafikbibliothek Vega um direkte Hardwareunterstützung erweitert. OpenGL und Direct3D werden direkt unterstützt, um eine höhere Geschwindigkeit bei der Darstellung von Grafiken und die CSS3-Funktionen Background und Border zu erreichen. In Zukunft sollen mit Vega ausgefeilte Grafikeffekte für die Browseroberfläche sowie für Webseiten möglich sein. Wenn keine Hardwareunterstützung möglich ist, aktiviert Vega automatisch das Software-Rendering. Damit kann Vega beispielsweise auch auf Mobiltelefonen verwendet werden.“

Und wenn ihr mehr wissen wollt auch zur neuen JavaScript-Engine von Opera namens Carakan hier kompletter Beitrag:

http://www.golem.de/0902/65071.html

;-)
 
BasCom schrieb:
mal ne bescheidene anfrage an alle experten hier. ob nun ( wie früher ) die cpu den strom verbraucht, oder ab demnächst die grafikkarte...soweit ich sagen kann ist doch die TDP einer graka höher, oder nicht? also gewinne ich: leistungszuwach durch höheren stromverbrauch ? oder wie läuft des.

https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Also am einfachsten kann man das anhand größerer Projekte erklären. Da stellen sich die Vorteile dann besonders raus. Stell dir selber die Frage, was ist effizienter, ein Haus voller CPUs(350 Quads) oder ein Rechner vollgestopft mit GPUs? (4x2=8)
Schneller, effizienter, günstiger, kompakter(Ion -> 16 Kerne, reichen locker für Firefox), besser... In vielen Fällen ist die GPU eine bessere CPU, aber nicht immer, das soll dann Fermi und Larrabee ändern. Mal schaun wies weiter geht.

MfG Kasmo
 
Zuletzt bearbeitet:
hört sich gut an... aber erst einmal abwarten wie es dann nachher wirklich aussieht
 
Zurück
Oben