Ja, ich kehre tatsächlich zurück! Nach fünf Jahren Mac als Privatcomputer steige ich wieder auf Windows um, sobald mein Lenovo-Notebook nächste Woche geliefert wird.
Und ihr fragt euch zurecht, wie das sein kann, warum ich nach so langer Zeit als überzeugter Apple-Nutzer wieder zu einem Windows-Laptop zurückkehre. In diesem Blogbeitrag versuche ich, darauf eine Antwort zu geben, ein paar Einblicke in die Gründe für den Umstieg aufzuzeigen und zu erklären, warum VoiceOver und seine Bedienkonzepte und meine Arbeitsweisen nicht mehr zusammenpassen.
Ein wenig Geschichte
Als ich 2008 anfing, mich mit dem Mac zu beschäftigen, war mir schnell das Potential klar, dass ein Ausliefern eines Screen Readers mit einem Mac hat. Einen Screen Reader mit einem Betriebssystem zu bündeln kannte ich schon von Linux bzw. dem GNOME Desktop. Apples Vorteil ist jedoch, dass sie genau wissen, welche Hardware in ihren Rechnern steckt. Ein blinder Anwender kann sich also sicher sein, dass er einen Mac, den er sich gekauft hat, auch selbstständig einrichten kann.
Unter Windows und Linux besteht dagegen das Problem, dass das Betriebssystem nie weiß, welche Hardware es vorfindet. Da braucht nur mal eine supertolle neue Soundkarte eingebaut worden sein, für die die aktuelle Version des Betriebssystems noch keine Treiber hat, und schon kann eine Sprachausgabe ihre Mitteilungen nicht mehr loswerden. Auf Rechnern von der Stange ist das sicher nicht so das Problem, auf selbst gebauten Rechnern dagegen durchaus. Da kann Microsoft oder die Linux-Distribution noch so schöne Möglichkeiten bieten, Sprachausgaben während der Installation zu starten: Ohne Soundkartenunterstützung läuft nichts.
Und VoiceOver hatte auch in OS X 10.5 Leopard schon viele Features. Es ging nicht nur das Browsen im Internet schon ganz ordentlich, auch Braillezeilen liefen, Mail sowieso, und der Kalender war einer der zugänglichsten, den ich auf Desktops jeder Coleur je gesehen hatte. Dies bezieht den Outlook-Kalender und die diversen Screen-Reader-Unterstützungen mit ein. An einer von denen hatte ich ein paar Jahre zuvor ja sogar selbst mitgearbeitet. Und einige Apps von Drittherstellern liefen auch. Mein erster Twitter-Client war ein Mainstream-Mac-Programm, das viele Sehende auch genutzt haben.
Am Anfang gab es eine durchaus zu erwartende Lernkurve. VoiceOvers Paradigma, mit Elementen zu interagieren, unterscheidet sich in Teilen grundlegend von dem, was man von Windows her gewohnt ist. Gerade das sogenannte Interagieren mit Elementen wie Symbolleisten, Tabellen oder Webinhalten kann zu Beginn sehr verwirrend sein. Wer mit VoiceOver nicht vertraut ist: Interagieren heißt hineinzoomen. Eine Tabelle bekommt dann auf einmal Zeilen und Spalten, eine Tabellenzeile individuelle Tabellenzellen, und jede Zelle den detaillierten Textinhalt, wenn man nacheinander in jedes dieser Elemente hineinzoomt, in die Hierarchie “hinabsteigt”.
2009 erschien dann OS X 10.6, auch unter dem Namen Snow Leopard bekannt. Es gab eine Fülle neuer Features. So gab es nun eine Unterstützung der TrackPads moderner MacBooks und später auch des Magic TrackPad, die der Bedienung von iOS-Geräten wie dem gerade erschienenen iPhone 3G S nicht unähnlich war. Die Elementliste, VoiceOvers Entsprechung einer Liste von Links oder Überschriften, wurde um diverse Elemente von Webseiten erweitert. Es gab nun Webspots, die entweder selbst erkannt oder frei definierbar waren. Sogenannte VoiceOver-Steuerungen erlaubten das Zuweisen verschiedenster VoiceOver-Befehle und Skripts an Tastenkombinationen oder Touch-Gesten. Vielleicht erinnert sich der eine oder die andere noch: Snow Leopard kostete 29 Euro, und neben dieser Fülle an neuen VoiceOver-Features brachte es natürlich eine ganze Reihe anderer neuer Features mit, die für alle gedacht waren. Ein geflügeltes Wort war: Andere Screen-Reader-Hersteller brauchen drei Updates, um diese Menge an Features einzubauen, und verlangen auch gleich genauso viele Updategebühren dafür. Und es stimmte!
2011 erschien dann OS X 10.7, Codename Lion. Dieses brachte wiederum eine große Menge an neuen Funktionen mit, unter anderem wurden internationale Sprachausgabestimmen mitgeliefert, so dass man im Deutschen nicht mehr darauf angewiesen war, sich externe Stimmen wie die von AssistiveWare zu kaufen. Braille bekam internationale Unterstützung, inklusive Kurzschrift. Und es gab eine ganze Menge weiterer neuer Features für die Barrierefreiheit, über die ich ausführlicher in meinem Beitrag zu OS X Lion geschrieben habe.
Die ersten Probleme
In Lion tauchten auch die ersten Probleme auf. Einige Funktionen fühlten sich nicht zu Ende gedacht oder implementiert an. So war und ist es bis heute nicht möglich, in der deutschen Kurzschrift die Großschreibung abzuschalten. In normaler Literatur wird im Deutschen nichts außer Abkürzungen wie GmbH und die Anrede “Sie” groß geschrieben. Da im Deutschen ja jedes Nomen groß geschrieben wird, wäre das sonst eine viel zu große Platzverschwendung. Im Englischen werden nur Satzanfänge, Abkürzungen und Eigennamen groß geschrieben, so dass dort die Menge an groß zu schreibenden Wörtern viel geringer ist. Sowohl unter OS X als auch unter iOS ist die Großschreibung nicht abschaltbar, während dies in anderen Screen Readern unter Windows zum Standardumfang gehört. Platz auf einer Braillezeile ist kostbar! Ich reichte hierfür auch einen Bug ein, dieser wurde aber irgendwann archiviert, ohne dass etwas passiert wäre.
Auch andere Probleme mit Braille schlichen sich ein. So muss ich aus mir nicht nachvollziehbaren Gründen bis heute oft zweimal oder noch öfter auf eine Routingtaste drücken, bis sich der Cursor bequemt, an die gewünschte Stelle zu springen. Unter Windows ist eine Reaktion mit der richtigen Cursoranzeige ausnahmslos sofort gegeben. Weiterhin kann man in der Ausführlichkeit für Braille zwar die Menge an Informationen einstellen, aber was für einen bestimmten Elementtyp angezeigt wird, ist nicht veränderbar. So ist ein “geschlossen Schließdreieck” genau das auf einer Braillezeile. Auf einer 14-stelligen Mobilzeile verschwendet das zwei Anzeigelängen, auf einer 40-stelligen Zeile immer noch genügend Platz, um kaum noch was anderes sinnvolles anzuzeigen.
Auch andere Funktionen gaben mir das Gefühl, dass sie nicht fertig geworden waren. So war, wie im oben verlinkten Blogbeitrag erwähnt, die Anzeige von WAI-ARIA-Landmarks sehr umständlich. Das war umso unverständlicher, wenn man bedachte, dass dieselbe Ansage unter iOS so wunderbar funktionierte. Die Vocalizer-Sprachausgaben hatten einen Chipmunk-Effekt, der zuerst zwar recht lustig war, im täglichen Einsatz dann aber doch sehr nervte.
OK, dachte der Apple Fanboy, der ich nun einmal war, warten wir auf die Updates, das sind so offensichtliche Fehler, dass sie garantiert behoben werden. Aber nichts dergleichen geschah. Die inkrementellen Updates brachten zu keinem meiner an Apple berichteten Probleme Korrekturen.
Ein Jahr später erschien dann Mountain Lion, OS X 10.8. Auch hier gab es einige neue Features, aber viel weniger als vorher. Zugegeben, während zwischen den Versionen 10.5, 10.6 und 10.7 jeweils zwei Jahre lagen, war nun lediglich ein Jahr vergangen. Es wurden ein paar kleine und nicht zu spannende neue Funktionen nachgereicht wie die Möglichkeit, Spalten in Tabellen neu anzuordnen. Safari lernte mehr HTML5 und WAI-ARIA und war weniger oft beschäftigt als vorher, aber das war’s dann auch im Grunde schon. Bis auf den Chipmunk-Effekt wurden beschriebene Probleme nicht behoben.
Auch schlichen sich neue Probleme ein. Ich besitze eine Handy Tech Modular Evolution als Schreibtisch-Braillezeile. Diese funktionierte auf einmal von einem Mountain-Lion-Update zum nächsten nicht mehr, und es dauerte mehrere inkrementelle Updates, so dass die Zeile über vier bis fünf Monate im Grunde nur Platz auf dem Schreibtisch verschwendete.
Und so ging es weiter
Und so ging es auch mit OS X 10.9 Mavericks weiter. Wieder kamen nur einige wenige neue Features hinzu, alte Probleme wurden nicht behoben, aber neue eingeführt. So funktioniert seit dem Update meine Laptop-Zeile Handy Tech BrailleStar 40 nicht mehr. Sie wird schlicht nicht erkannt, wenn man sie an den USB-Port anschließt. Wie ich in einer Google-Group gelesen habe, ist Handy Tech das Problem bewusst, aber sie können nichts machen, weil Apple die Braillezeilentreiber selbst programmiert. Man kann nur hoffen, dass das Problem noch in einem 10.9 Update gefixt wird.
Aber auch in anderen Bereichen gab es deutliche Verschlimmbesserungen. Das Handling von Konversationen in Mail ist jetzt echt umständlich. Die einzelnen Mails sind nur noch eingebettete Objekte, keine echten Tabellenzellen mehr wie in 10.7 und 10.8, und wenn man eine Konversation anwählt, springt der Fokus immer auf die neueste Mail. Man muss also selbst nach rechts auf die älteren Mails navigieren, um die Unterhaltung linear lesen zu können, dann natürlich von rechts nach links.
Auch dem Kalender hat ein neuerliches Redesignen nicht wirklich gut getan. Es ist zwar alles irgendwie zugänglich, jedoch so verschachtelt und teilweise mit so unberechenbaren Fokussprüngen, dass er zwar rein technisch zugänglich, aber nicht mehr benutzbar ist. Der Kalender scheint eh in jeder Version neu designt zu werden, wenn man nach den Kommentaren sehender Mac-Benutzer geht.
Und dennoch ist ein zugänglicher Kalender eines der Dinge, die ich beim Umstieg auf Windows vermissen werde. Es gibt zwar Versuche, den Kalender in Outlook zugänglich zu machen, aber dieses Tätigkeitsfeld ist auch immer wieder der Anlass für Hotfixes und andere Update-Notwendigkeiten diverser Screen Reader. Ich werde in Zukunft meine Kalenderaktivitäten hauptsächlich von iOS-Geräten aus betreiben. Hier habe ich nämlich alles unter Kontrolle.
iBooks, welches neu in 10.9 ist, ist ein komplettes Zugänglichkeitsdisaster. Fast alle Buttons sind nicht beschriftet, und es ist sehr träge. Auch das kurz nach Erscheinen von Mavericks freigegebene Update und auch das große Update auf Mavericks 10.9.1 kurz vor Weihnachten 2013 lösten keines dieser Probleme.
Aktivitäten sind laut Aussage eines Bekannten ziemlich kaputtgegangen. Sie werden einfach nicht mehr gestartet, selbst wenn man sie neu einrichtet.
Und nun mal Butter bei die Fische!
Und hier sind wir beim ersten Grund dafür, dass ich wieder zu Windows zurück wechsle. All die oben erklärten Punkte summieren sich zu einem Eindruck, dass Apple längst nicht mehr so hinter VoiceOver auf dem Mac stehen wie früher und es inzwischen nur noch stiefmütterlich behandelt wird. Es bekommt längst nicht mehr die Aufmerksamkeit, die es vor ein paar Jahren noch bekam. Alte Bugs werden nicht behoben, neue eingeführt, die echte Produktivitätskiller sind. Und obwohl sie von Beta-Testern, von denen ich auch einer war, frühzeitig berichtet wurden, wurden sie nicht behoben wie die Punkte in Mail, dem Kalender oder iBooks.
Oh ja natürlich: Pages wurde endlich, nach über vier Jahren, zugänglicher und kann jetzt auch Tabellen in Dokumenten zugänglich machen. Mit Keynote kann man jetzt auch als VoiceOver-Anwender Präsentationen vorführen und diese auch kontrollieren. Diese wiegen aber die erwähnten Punkte nicht auf. VoiceOver müsste als integrierter Bestandteil des Betriebssystems viel mehr Pflege als diese erfahren, die es im Grunde seit dem Erscheinen von Lion, also seit fast 2,5 Jahren, bekommt.
Der nächste Punkt betrifft einen, der schon in diversen Foren und Mailinglisten heiß diskutiert worden ist. VoiceOver ist deutlich weniger effizient, wenn man im Internet surft als Screen Reader unter Windows. Das Navigieren von Element zu Element ist nicht wirklich schnell. Das Springen von Überschrift zu Überschrift hat je nach Komplexität der Seite auch immer Verzögerungen. Die Art, wie Apple seine Schnellnavigation entworfen hat, ist zu kompliziert. Man muss zum einen mit Pfeil Links + Rechts die Schnellnavigation einschalten, zusätzlich aber einmalig unter Steuerungen im VoiceOver-Dienstprogramm die Navigation mit einzelnen Buchstaben aktivieren. Ist die Schnellnavigation eingeschaltet, bewegt man sich nur mit Cursor links und rechts durch ein Dokument, nicht von oben nach unten, wie man es von Webinhalten, die ja immer noch weitgehend dokumentenbasiert sind, vermuten würde. Außerdem hat die zuletzt genutzte Schnellnavigationstaste Einfluss darauf, womit sich die Elementliste (VoiceOver+U) öffnet. Ist man zuletzt mit dieser Liste zu einem Link navigiert, hat danach aber z. B. mit den Schnellnavigationstasten Überschriften oder Formularfelder angesprungen, öffnet die Liste jetzt auf der Seite der Überschriften oder Formularfelder. Man muss dann erst mit Pfeil links und rechts zur Seite mit den Links umschalten. Das wird auf die Dauer sehr umständlich.
VoiceOver ist auch nicht gut darin, die zuletzt gelesene Stelle auf einer Webseite zu behalten. Sobald die Interaktion beendet und später neu gestartet wird, startet VoiceOver wieder am Anfang der Seite. Screen Reader unter Windows merken sich mit ihren virtuellen Cursorn die aktuelle Leseposition in Webdokumenten, auch in mehreren parallel geöffneten. Auch Skype, Adium und Apples eigene Nachrichten-App sind von diesem Problem betroffen. Man kann kaum in eine Unterhaltung hinein oder aus ihr heraus springen, ohne seine Leseposition zu verlieren. Auch die VoiceOver-Tastenkombination VoiceOver+J, um zwischen verbundenen Bildschirmelementen zu springen, hilft hier nicht wirklich. Die ist nämlich öfter mal kaputt, wird dann wieder repariert und ist später wieder oder anders kaputt. Apples eigene Nachrichten-App ist hierfür das beste Beispiel.
Es gibt noch viele weitere Kleinigkeiten, die mir in der Summe das Gefühl geben, wesentlich weniger produktiv zu sein, wenn ich mit VoiceOver im Web unterwegs bin als unter Windows.
Der nächste Punkt ist VoiceOvers Konzept der Interaktion mit Elementen. Wo dies nämlich auch zum Tragen kommt ist, wenn ich detailliert Text lesen möchte. Ich muss immer erst soweit mit den Elementen interagieren, bis ich auf der Textebene, der untersten Ebene, angekommen bin, um Text zeichen- oder wortweise lesen zu können. Nach Beendigung des ausführlichen Lesens von Text muss ich dann die Interaktionsebenen wieder hinaufklettern, um mit der Anwendung weiter zu interagieren oder zum nächsten Element zu gehen. Oh ja, es gibt durchaus Befehle, um zeichen-, wort- oder sogar satzweise zu lesen. Alle VoiceOver-Befehle werden jedoch mit der Tastenkombination Control+Auswahltaste eingeleitet. Die meisten Tastaturen wie die von MacBooks oder das Wireless Keyboard haben jedoch eine Control-Taste nur links. Die Buchstaben für diese Operationen werden auch mit links gedrückt. Ich muss also, wenn ich meine Hand nicht verdrehen will, die rechte Hand zu Hilfe nehmen. Sie muss also ihre normale Position verlassen und auf der linken Seite der Tastatur Buchstaben greifen, während die linke Hand Control und Auswahl festhält. Auch das Einschalten der Funktion “VoiceOver-Tasten feststellen” trägt hier am ehesten noch zum Verkomplizieren des gesamten Vorgangs bei.
Dieses Modell der Interaktion wird auch auf die Erforschung des Bildschirms per TrackPad angewendet. Man ist ständig am Interagieren oder Aufheben der Interaktion, um ein Gefühl für den gesamten Bildschirm zu bekommen. Und selbst dann habe ich immer das Gefühl, ich könnte noch etwas übersehen haben. Anders auf iOS, wo ich immer das Gefühl habe, den ganzen Bildschirm im Griff zu haben und wo es dieses Modell der Interaktion mit Elementen gar nicht gibt. Zugegeben, einen ganzen Desktop-Bildschirm auf einem kleinen TrackPad abzubilden würde zu Elementen führen, die so klein sind, dass man sie nicht mehr richtig berühren könnte. Daher nutze ich diese Art der VoiceOver-Interaktion, wenn’s hoch kommt, lediglich vier- bis fünfmal pro Jahr zu ganz spezifischen Anlässen.
Ein weiteres Problem, das mir sehr oft im Weg steht, ist die inkonsequente Darstellung, die ich in Braille erhalte. Entweder zeigt Braille lediglich das an, was die Sprachausgabe mir vorliest, manchmal ist es eine semi-räumliche Darstellung der Bildschirmumgebung des Fokus, und manchmal ist es die Beschriftung für ein Element mit abgeschnittenem Text rechts oder links und dem Cursor nicht immer an vorhersehbaren Positionen. Die nicht abschaltbare Großschreibung in der deutschen Kurzschrift habe ich bereits erwähnt, sowie die Tatsache, dass ich die Routingtasten fast immer mehr als einmal drücken muss, damit der Cursor dahin geht, wo ich ihn haben will. Die Brailleimplementierung in VoiceOver hinterlässt einen sehr unfertigen Eindruck und fühlt sich an wie von jemandem gemacht, der selbst kein Braille liest und nicht weiß, worauf es bei der Benutzung einer Braillezeile ankommt.
Nächstes Problem: Textverarbeitung. Oh ja, Pages wurde in der neuen Version deutlich zugänglicher, wie bereits erwähnt. Dennoch sind es wieder die Bedienkonzepte von VoiceOver, die einem produktiven Arbeiten hier im Wege stehen. Will man etwas auf einer Symbolleiste einstellen, muss man den VoiceOver-Cursor vom Systemfokus abkoppeln. Tut man dies nicht, wird der System-Fokus aus dem Dokument heraus verschoben. Eventuell markierter Text wird entmarkiert, und das ganze Vorhaben ist hinfällig und muss von neuem begonnen werden. Hat man ihn entkoppelt, muss man später dran denken, ihn wieder zu koppeln, denn ansonsten kann es aus Gewohnheitsgründen zu anderen unvorhergesehenen Erlebnissen kommen, weil der System-Fokus auf einmal nicht dort ist, wo man ihn erwartet. Und wieder ist auch das Paradigma, dass VoiceOver fast nur horizontal navigiert, sehr unintuitiv, wenn es dazu kommt, dass mehrere Seiten in Pages, Nisus Writer Pro oder anderen Textverarbeitungen angezeigt werden. Für den Blinden erscheinen sie nämlich so nebeneinander, obwohl sie visuell wahrscheinlich untereinander angeordnet sind. Jede Seite ist auch ihr eigener Container, mit dem natürlich wieder interagiert werden muss. Dies alles hinterlässt bei mir das Gefühl, meine Dokumente nicht so im Griff zu haben wie unter Windows mit MS Word oder sogar OpenOffice oder LibreOffice in den aktuellen Entwicklerversionen. Auch bekomme ich unter Windows mehr Informationen frei Haus mitgeliefert, nach denen ich mit VoiceOver explizit suchen muss, wie z. B. die aktuelle Seitennummer, die standardmäßig angesagt wird. NVDA, und wahrscheinlich andere auch, hat auch Unterstützung für mehrsprachige Dokumente in Word. Ich höre also sofort, mit welcher Rechtschreibprüfung mein Text korrigiert wird, sogar runtergebrochen auf Sätze oder Absätze.
Weitere Probleme wurden bis zum heutigen Tage nicht angegangen. So gibt es keinen mir bekannten PDF-Leser, der mit für Zugänglichkeit getaggten PDFs klarkommt. Vorschau nutzt die Tags nicht und gibt einem auch in anständig getaggten PDFs nur die Ansicht, die es bei normaler Textextraktion gibt. Man hat also keine Navigation per Überschriften, keine Tabelleninformationen oder andere Dinge, die von zugänglichen PDFs unterstützt werden, zur Verfügung.
Außerdem gibt es kein zugängliches Flash-Plug-In für OS X. Dies hat schon des öfteren dazu geführt, dass ich eine virtuelle Maschine für Windows gestartet habe, nur um mir in Blogbeiträgen eingebettete Videos anschauen zu können. Dies ist nicht Apples Schuld, sondern die Schuldigen sind Adobe, die kein zugängliches Flash-Plug-In für OS X erstellen. Es fügt sich aber in die Reihe der Dinge ein, die dazu führen, dass ich unter OS X längst nicht so produktiv sein kann wie ich dies unter einem Desktop-Betriebssystem sein möchte. Klar, HTML5 Video ist auf dem Vormarsch und hält in immer mehr Videoportalen Einzug, aber Flash wird noch ein paar Jahre unser Begleiter sein, so dass ich auch in Zukunft immer wieder auf dieses Hindernis stoßen werde.
Fazit
Abschließend möchte ich noch einmal betonen, dass ich mit all den oben erwähnten Punkten nicht sagen möchte, dass Apple keinen guten Job gemacht hätten, was das allgemeine Konzept eines zugänglichen Desktop- oder MacBook-Rechners angeht. Gerade unter iOS haben sie in den vergangenen Jahren unglaubliches für Blinde und Menschen mit anderen Behinderungen geleistet! Und dass man sich heute einen Mac kaufen und diesen als Blinder selbstständig konfigurieren kann, kann nicht genug gelobt werden! Auch dies werde ich beim Umstieg vermissen, denn es ist unter Windows weiterhin nicht möglich, einen Rechner komplett neu aufzusetzen, ohne sehende Hilfe in Anspruch nehmen zu müssen.
Es ist nur so, dass ich im Verlauf der Jahre festgestellt habe, dass einige Designentscheidungen, die Apple in Bezug auf VoiceOver getroffen hat, Bugs, die nicht behoben werden oder die einen nach Jahren neu eiskalt erwischen, und die Tatsache, dass Apps entweder weitgehend zugänglich sind, oder komplett gar nicht, und es kaum Zwischenstufen gibt, auf lange Sicht nicht mit mir und der Art, wie ich einen Desktop- oder Laptop-Computer produktiv nutzen möchte, kompatibel sind. Unter iOS habe ich nach wie vor das Gefühl, dass Apple mit Volldampf dabei sind, neue Zugänglichkeitsfunktionen in jedes Release einzubauen und Fehler zu beheben wie die von Jonathan Mosen in diesem englischsprachigen Blogbeitrag aufgezeigten Brailleprobleme. Bei OS X bin ich nicht mehr überzeugt davon, dass Apple noch mit all dieser Hingabe dabei sind. Ich habe auch allgemein das Gefühl, dass OS X demnächst ein Produkt mit weniger hoher Priorität als iOS sein wird. Aber auch das ist nur meine persönliche Ansicht.
Da haben wir’s! Das sind die Gründe, weswegen ich zukünftig privat mit einem Lenovo-Notebook und NVDA als meinem primären Screen Reader unterwegs sein werde. Beruflich werde ich weiter auch mit einem Mac arbeiten, privat wird jedoch mein MacBook durch ein Windows-Notebook abgelöst. Ich will schnell, effektiv, produktiv und mir sicher sein, dass meine Hilfstechnologie nicht auf einmal nicht mehr mit meiner Braillezeile funktioniert. Auch will ich sicher gehen, dass diese Hilfstechnologie nicht auf einmal von einer Geschäftsentscheidung betroffen ist, die weniger hohe Priorität auf sie setzt. Hersteller von Screen Readern sind unabhängige Firmen oder Organisationen und darauf ausgerichtet, ihre Software weiterzuentwickeln.
Und es gibt Auswahl. Wenn ein Screen Reader meinen Belangen nicht mehr genügt, gibt es andere, die dies dann höchstwahrscheinlich tun und die Lücke füllen können. Unter OS X gibt es diese Auswahl nicht.