Quantcast
Channel: Marcos Leben
Viewing all 108 articles
Browse latest View live

Meine Rückkehr zu Windows wurde rückgängig gemacht – schon vor einiger zeit

$
0
0

Im Februar 2014 schrieb ich einen Beitrag über meine Gründe, zu Windows zurückzukehren. Seitdem ist einiges passiert, und da ich gern Themen aufgreife bzw. aktualisiere, die ich im Blog angeschrieben habe, ist es nun mal Zeit für ein Update.

Nach meiner Entscheidung kaufte ich mir ein Lenovo-Notebook mit allen möglichen Extras. Hochgezüchteter 4-Kern-Prozessor, viel Speicher, eine SSD usw. usf. Dieser Laptop schaffte es, seine Windows-Vorinstallation nach zwei Monaten komplett zu Schrott zu fahren.

Da auch die Recovery-Partition nicht funktionierte, musste ich mir ein Microsoft-ISO von Windows 8.1 besorgen und dieses aufspielen. Es folgte ein Marathon an zusätzlichen Treiberinstallationen. Dabei brauchte ich sehende Hilfe, weil – oh Wunder! – die Soundkarte natürlich auch nicht von Haus aus funktionierte, sondern ihren eigenen Treiber benötigte.

Diese zweite Installation hielt zwar etwas länger, wurde mit der Zeit aber auch immer langsamer und langsamer und laaaaangsaaaaaaameeeeeer. Dabei hatte ich übliche Verdächtige schon längst abgeschaltet wie z. B. das Defragmentieren, das man auf einer SSD nicht benötigt. Indiziert wurde auch nichts. Ich machte auch nichts Wildes mit dem System, also keine ausgefallenen Installationen, es hatte sich keine Schadsoftware drauf verirrt usw. Das Notebook, das den Namen Schlepptop durchaus verdient, schmiss alle zwei Minuten seinen Lüfter an. Das Plastikgehäuse wurde regelmäßig dermaßen warm, obwohl ich nicht mehr tat als mal ein bisschen E-Mails zu lesen oder im Web zu surfen. Und ich hatte nicht mal Flash installiert! Drei verschiedene Twitter-Clients schrotteten in Wochenabständen ihre Datenbanken aus völlig unerklärlichen Gründen. Ich probierte drei aus, werde aber keine Namen nennen.

Anfang Oktober war ich dann dermaßen genervt, dass ich das Notebook jungfräulich aufsetzte und zum Verkauf darbot. Ich kehrte zu meinem macBook Air zurück, auf dem inzwischen die öffentliche Beta-Version von OS X Yosemite lief. Wie wir wissen, waren die ersten Releases dieser Version jedoch absolut unbrauchbar für diejenigen, die auf VoiceOver angewiesen waren. Ich installierte Windows 8.1 also in einer Bootcamp-Partition und nutzte dies noch ca. zwei Monate täglich.

Im Januar verkaufte ich dann endlich das Lenovo-Notebook, zu einem Preis, der um ca. 70% unter dem lag, was ich dafür bezahlt hatte. Und das bei Hardware, die nicht mal ein Jahr alt war! Es war der dritte oder vierte Verkaufsversuch über eBay, der dann endlich fruchtete.

Zur gleichen Zeit erschien OS X Yosemite 10.10.2, das wesentliche Bug Fixes für VoiceOver und andere Systembereiche enthielt. Ich schmiss die Bootcamp-Partition vom System, installierte Windows in einer VMware Fusion VM (für alle Fälle), und kehrte zu OS X zurück.

Mail ist immer noch nicht wirklich schön, vor allem wenn man Konversationen lesen will. Entweder gibt es keine, oder ich habe sie noch nicht gefunden, jedenfalls fehlt mir eine Möglichkeit, schnell von einer Mail zur nächsten zu wechseln, wenn ich in der Konversationsansicht bin. Zur Zeit muss ich immer zwei Schichten VoiceOver-Interaktion stoppen und in der nächsten (bzw. vorigen, weil man ja nach links zur nächst neueren geht) Mail wieder zweimal zu interagieren, um den Mailtext lesen zu können.

Safari und Chrome sind beide zum Surfen OK, Firefox ist noch nicht soweit. Das liegt aber am Accessibility-Team bei Mozilla, von dem ich ein Teil bin, nicht an OS X.

Pages hat in dem einen Jahr ziemlich dazugelernt und ist zugänglicher geworden, und sogar Microsoft macht Office 2016 für Mac jetzt zugänglich.

Der Twitter-Client meiner Wahl, Yourufukurou, ist um Längen besser als die drei, die ich unter Windows ausprobiert habe. Und auch sonst sind meine Software-Bedürfnisse gedeckt. Das geht sogar soweit, dass ich mir Anfang April nach fast drei Jahren einen Refresh des MacBook Air 11 Zoll gegönnt habe und meine beiden Vorgängermodelle, das 2011er und 2012er zusammen zu einem Preis verkauft habe, der fast 2/3 des Neupreises für dieses 2015er Modell entsprach.

Soweit also ein Update zu diesem Thema! :)


Im Test. Zagg Slim Book fürs iPad Mini

$
0
0

Vor zwei Wochen stieß ich auf diese Rezension von Kay des Zagg Slim Book für das iPad Mini. Seine sehr positive Rezension machte mich neugierig, und Anfang der Woche konnte ich endlich selbst ein Exemplar dieser iPad-Hülle mit Tastatur in Händen halten und begutachten.

Das Slim Book ist eine Kombination aus Tastatur und Schale fürs iPad. Zugeklappt erinnert sie mich sehr an einen dieser alten Asus EEE PCs, wie sie gegen Ende des letzten Jahrzehnts die Ära der Netbooks und Subnotebooks einleiteten. Es ist sehr kompakt und wiegt mit dem iPad Mini 2 mit Wifi und Mobilfunk 712 g.

Die Modi

Das Slim Book kann in vier Modi betrieben werden:

  1. Im Tastatur-Modus ist es mit dem iPad eine klassische Kombination. Das iPad steht im Querformat hinten an der Tastatur.
  2. Im Tablet-Modus wird die Schale, in der das iPad sitzt, einfach von der Tastatur abgenommen. Starke Magneten halten die beiden Teile zusammen, aber für den Tablet-Modus ist die Schale trotzdem schnell  abgenommen.
  3. Im Buchmodus wird die Schale des iPads umgekehrt an die Magnethalterung geklippt und über die Tastatur geklappt. Der Schließmechanismus funktioniert also auch, wenn das iPad mit der Schale auf dem Rücken liegt.
  4. Der Video-Modus schließlich ist der Buchmodus mit hochgeklapptem iPad. Es steht dann aufrecht, die Tastatur befindet sich an der Rückseite, und als Sehender hat man einen freien Blick auf den Bildschirm ohne Ablenkung durch die Tastatur.

In jedem Modus außer dem Tablet-Modus sind beide Teile also mechanisch aneinander gekoppelt, und es fliegt nichts in der Gegend herum. Und hält man das iPad samt Schale in der Hand, um es als Tablet zu benutzen, bleibt die Tastatur einfach auf dem Tisch liegen.

Aufbau und Handhabung

Die Schale ist sehr robust. Damit wurde einer der wesentlichen Kritikpunkte aus meinem großen iPad-Tastatur-Test behoben. Das Folio von Zagg hatte ja einen sehr wabbeligen und nicht passgenauen Rücken und fühlte sich nicht wertig an. Das ist beim Slim Book anders.

Der Schließmechanismus hält iPad und Tastatur sehr gut zusammen, so dass man beim Transport nicht befürchten muss, dass sie sich voneinander lösen.

Die Tastatur selbst hat ein fast vollwertiges deutsches Tastaturlayout. Die Tasten für ä und ü sind etwas schmaler als die sonstigen Buchstabentasten. Die Taste für das <- bzw. >-Zeichen fehlt und wird über FN+Bindestrich-Taste ausgelöst. Genauso fehlt die Taste für das Hütchen- bzw. doppelte Accent-Zeichen. Diese wird mit FN+Zifferntaste 1 simuliert. Alles ist natürlich dem iPad Mini entsprechend etwas schmaler und steht dicht zusammen. Aber die Tasten sind so angeordnet, dass für mich ein flüssiges Schreiben, allerdings mit einer wichtigen Einschränkung (siehe unten), möglich ist. Die Tasten haben einen guten Druckpunkt. Und die Konstruktion erlaubt sogar eine getrennte Leiste von Funktionstasten oberhalb der Zifferntasten. Die Funktionen sind üblich Home, Sperren, Siri, Bildschirmtastatur einblenden, Wiedergabesteuerung, Stumm, Lautstärkeregelung, und auch die Power- und Bluetooth-Tasten sind in die Leiste der Funktionstasten oben rechts integriert.

Nach einer Woche musste ich jedoch feststellen, dass trotz gut erfolgter Eingewöhnung kein wirklich flüssiges Schreiben möglich war. Das Hauptproblem sind Tastendrücke, die nicht angenommen werden. Vornehmlich betrifft dies Wörter mit doppelten Buchstaben, es fehlen aber auch gern mal andere Buchstaben. Dies wurde in einem großen Tastaturtest Im Heft 1/2015 der Zeitschrift Mac & i bei einem Vorgängermodell ebenfalls bemängelt und scheint ein grundsätzliches Problem dieser Tastatur fürs iPad Mini zu sein, gerade für Schnellschreiber. Von keiner anderen Tastatur egal für welches iPad oder MacBook kenne ich dieses Problem.

Der Akku wird wie üblich per Mikro-USB-Kabel aufgeladen und soll lange halten. Schaltet man die Tastatur nicht aus und klappt das iPad zu, wird die Tastatur schlafen geschickt und wacht nach dem Aufklappen auf Tastendruck wieder auf.

Fazit

Ich kann Kay insofern zustimmen, dass dies mit Abstand die beste Tastatur fürs iPad Mini ist, die ich bisher unter den Fingern gehabt habe. In Kombination bietet das Slim Book einen robusten Rundumschutz für Tastatur und iPad. Wer es gern lieber bebildert hat, ist herzlich eingeladen, Kays Post zu lesen. Dort gibt es Fotos. :)

Jedoch bedeutet das oben geschilderte Problem für mich, dass die Tastatur für meinen Zweck nicht geeignet ist. Die fehlenden Buchstaben, die ich in der Regel durchs Tastaturecho „Wörter“ bei VoiceOver sofort höre, unterbrechen meinen Schreibfluss und zwingen mich zur sofortigen Korrektur. Alternativ bedeuten sie im Nachhinein einen erheblichen Korrekturaufwand. Insofern ist für mich mit dieser Tastatur trotz allen sonstigen Gefallens kein produktives Arbeiten möglich.

Das Slim Book git es auch für das iPad Air und iPad Air 2.

Das ist neu in den Bedienungshilfen von iOS 9

$
0
0

iOS 9.0 ist soeben erschienen. Diese Version bringt viele Neuerungen bei der Produktivität, verbessert die Fähigkeiten von Siri bei der Suche nach Ereignissen, Fotos und anderen Daten und macht das iOS-Gerät im allgemeinen zu einem vollwertigeren Assistenten.

Im folgenden gebe ich einen Überblick über einige Neuerungen bei den Bedienungshilfen und behandle die spezifische Bedienung einiger neuer Funktionen mit VoiceOver.

VoiceOver

VoiceOver hat mal wieder einiges dazugelernt. Ein Schwerpunkt von iOS 9 liegt auf der Erhöhung der Produktivität und dem verbesserten Einsatz von vor allem iPads im professionellen Umfeld. Dies spiegelt sich auch in den Neuerungen bei VoiceOver wider.

Der Rotor heißt jetzt Liste

Apple hat den Rotor in „Liste“ umbenannt, die Funktionalität bleibt aber gleich. Dies spiegelt sich vor allem in den VoiceOver-Einstellungen wider, in denen der Begriff „Rotor“ jetzt nicht mehr auftaucht, auch nicht bei den Sprachausgabe-Stimmen.

Verbesserte Textauswahl

Das Auswählen (markieren) von Text wurde stark verbessert. Bisher konte man Text mit VoiceOver nur markieren, indem man zwei Finger aufs Display legte und diese dann auseinander zog. Dies führte bei vielen Anwendern inklusive dem Autor dieses Artikels dazu, dass diese Option kaum genutzt wurde. Es machte einfach keinen Spaß. Die Auswahl war ungenau oder ging gar ganz verloren, wenn man die Finger nicht genau genug bewegte.

Unter iOS 9 wird das alles ganz anders gehandhabt. Befindet man sich dort, wo man Text markieren kann, gibt es einen neuen Eintrag in der Liste mit Namen „Textauswahl“. Bei Neuinstallationen befindet er sich „rechts“ von „Zeilen“, also von der Option „Zeichen“ aus gerechnet an vierter Listenposition. Bei bestehenden Listenkonfigurationen wandert diese neue Option ganz ans Ende der Liste, die Position kann also variieren. Am besten überprüft man einmal die Einstellungen und zieht sich die neue Option dorthin, wo man sie haben möchte.

Nach der Auswahl von „Textauswahl“ ist die Steuerung im Vergleich zu sonstigen Listenoptionen etwas verändert. Hat man die Hinweise eingeschaltet, sagt VoiceOver einem dies auch sofort an. Um nämlich einzustellen, was genau markiert werden soll, streicht man mit einem Finger nach oben oder unten. Man bewegt hier mit dieser Geste also nicht die Auswahl, sondern stellt ein, ob zeichen-, wort- oder zeilenweise markiert werden soll. Die eigentliche Auswahl erfolgt dann durch Streichen nach rechts, um die Auswahl zu erweitern, und mit streichen nach links, um sie zu verringern. Der Ablauf ist schematisch ungefähr so:

  1. Man geht mit zeichen-, wort- oder zeilenweiser Listennavigation an den Anfang.
  2. Dann schaltet man auf die Textauswahl um und wählt mit Streichen nach oben oder unten aus, in welchen Schritten man auswählen möchte.
  3. Im nächsten Schritt wird dann durch Wischen nach rechts die Textauswahl erweitert. Man kann zunächst z. B. wortweise auswählen, dann wieder auf Textauswahl schalten (VoiceOver setzt sich auf Zeichen zurück) und nun auf zeichenweises Markieren umschalten und weiter nach rechts wischen, um zeichenweise weiterzumarkieren.
  4. Hat man sich vertan, wischt man nach links, um Zeichen, Worte oder Zeilen wieder zu deselektieren.
  5. Hat man alles markiert, geht man mit dem Rotor auf Bearbeiten und kann wie üblich Nachschlagen, Ausschneiden, Kopieren und in einigen Textfeldern auch Formatierungen anwenden wie kursiv, fett, unterstreichen o. ä.

Und jetzt kommt der Clou! Das funktioniert nicht nur in Textfeldern, sondern auch in Safari oder Mail und sogar in iBooks in Textbüchern. Man kann nun also endlich kontrolliert Text markieren und muss nicht mehr auf das umständliche Doppeltippen-Und-Halten und dann unsichere Hin- und Herziehen des Fingers zurückgreifen. Text auf einer Web- oder Buchseite markieren und diesen dann kopieren wird so zu einem sehr erfreulichen Kinderspiel!

Ansagen von Formatierungen

Passend zu den oben erwähnten Verbesserungen bei der Textmarkierung und -formatierung gibt es auch Neuigkeiten bei der Ansage von Formatierungen in bestimmten Anwendungen. Die neue Notizen-App kann ja jetzt angereicherten Text aufnehmen. VoiceOver sagt an, ob man sich in irgendwie vom Standard abweichenden Text befindet, nennt Absatzstile und andere Details. Hat man eine Bluetooth-Tastatur gekoppelt, kann man auch mit VoiceOver+T (Mac-Anwender kennen diese Tastenkombination) die Formatierungen abfragen. Das funktioniert bisher in Mail und Notizen. Es ist aber zu erwarten, dass Apps, die auf iOS 9 angepasst werden, diese Möglichkeiten ebenfalls bekommen. Bei nicht angepassten Apps gibt dieses Kommando einen Fehlerton. Und beim Navigieren werden Formatierungsänderungen nicht automatisch gesprochen.

Es steht also zu hoffen, dass Pages, MS Word und andere zukünftig einen erleichterten Zugang zu Informationen zu Textformatierungen bereitstellen und man sich die Infos nicht mehr mühsam auf Verdacht hin aus den Popups und Symbolleisten zusammensuchen muss. Das wird der Produktivität auf iOS-Geräten ganz mächtig auf die Sprünge helfen!

VoiceOver-Taste abändern

Apropos Hardware-Tastaturen: Für diese kann man jetzt anpassen, ob Ctrl+Auswahltaste oder zusätzlich oder sogar statt dessen die CapsLock-Taste als VoiceOver-Sondertaste verwendet werden sollen.

Die Einstellung hierfür findet sich unter Einstellungen/Allgemein/Bedienungshilfen/VoiceOver/VoiceOver-Sondertaste.

VoiceOver-Taste einrasten

Die VoiceOver-Sondertaste kann, wie unter OS X schon lange möglich, jetzt auch auf Hardware-Tastaturen unter iOS eingerastet werden.

Siri-Stimmen verwenden

VoiceOver und auch die Funktion Bildschirm Sprechen können neben der Standard- und Premium-Variante der Stimme Anna jetzt auch die männliche und weibliche Siri-Stimme in einer Standard- oder erweiterten Variante verwenden. Die Punkte Sprachausgabe in VoiceOver bzw. den allgemeinen Bedienungshilfen wurden dementsprechend erweitert. Dies gilt im übrigen nicht nur für die deutschen, sondern auch für andere Sprachen, in denen Siri-Stimmen zur Verfügung stehen. Die Auswahl an zur Verfügung stehenden Stimmen hat sich also sprunghaft erhöht, und man kann sein VoiceOver-Erlebnis jetzt sehr viel stärker personalisieren.

Begrenzungen für Sprechgeschwindigkeit erweitert

Die obere und untere Grenze der Sprechgeschwindigkeit wurden stark erweitert. Man kann VoiceOver jetzt auch viel schneller oder langsamer sprechen lassen als vorher.

Audio-Route für VoiceOver

Werden verschiedene Audio-Routen erkannt, z. B. weil Musik oder Video gerade via AirPlay auf ein Apple TV gestreamt werden, kann in der Liste jetzt ausgewählt werden, ob VoiceOver lokal auf dem Gerät sprechen oder ebenfalls per AirPlay auf das externe Gerät gegeben werden soll.

Audio-Ducking beim Telefonieren

Wenn VoiceOver während eines Telefonats sprechen muss, wird das Audio des Gesprächs jetzt ebenfalls in der Lautstärke verringert, genau wie bei der Musik- oder Videowiedergabe.

Verzögerung beim Doppeltippen

Man kann in den VoiceOver-Einstellungen ganz unten jetzt eine Verzögerung beim Doppeltippen einstellen. Das ist vor allem für diejenigen interessant, die z. B. auf Grund einer motorischen Einschränkung einen Doppeltipp nicht so schnell ausführen können, wie es standardmäßig erforderlich ist.

Unterstützung für bidirektionale Sprachen

Wird arabisch oder hebräisch verwendet, kehren sich die Wischgesten für das vorherige und nächste Element um. Das nächste Element erreicht man dann also mit einem Wischen nach links, nicht mehr nach rechts, und umgekehrt.

Wird in arabischem oder hebräischem Text lateinische Schrift gefunden, wird diese automatisch mit einer englischen Stimme vorgelesen.

Neuerungen in Braille

  • Man kann jetzt einstellen, wie lange Braille-Hinweise auf der Zeile stehen bleiben, bevor sie wieder verschwinden.
  • Die Braille-Bildschirmeingabe sagt jetzt falsch geschriebene Wörter an.
  • Nutzt man das neue Multitasking auf dem iPad (siehe unten), bewegen 3-5-Chord den Fokus auf die linke, Punkte 2-6-Chord den Fokus auf die rechte Bildschirmhälfte, und Punkte 1-6-Chord schaltet zwischen App-Switcher, Abschalter des App-Switchers und der Vordergrund-App um.
  • Unterstützung für die Zeile Seika Mini 24 hinzugefügt.

Bedienung des iPad-Multitasking

Für diejenigen unter euch, die ein iPad nutzen, habe ich in diesem Artikel beschrieben, wie man die Modi Überlagerung, geteilter Bildschirm und Bild-In-Bild mit VoiceOver bedient.

Bekannte Probleme

  • VoiceOver hat die unangenehme Eigenschaft bekommen, bestimmte Listen z. B. in Twitterrific ganz nach oben zu scrollen, wenn es per Triple-Click auf die Home-Taste beendet und neu gestartet wird.
  • Die Tastaturhilfe für externe Tastaturen spricht noch nicht korrekt.
  • Braille hat immer noch die unangenehme Eigenschaft, beim Ausschnittswechsel nach links über Absatzgrenzen hinweg an den Anfang des vorigen Absatzes zu springen, nicht ans Ende.

Zoom

Im Zoom ist die einzige neue Funktion, dass die Einstellung der Zoom-Filter jetzt auch von den Einstellungen aus möglich ist und nicht nur durch den Anfasser des Zoom-Fensters.

Tastatur

In iOS 9 wird per Bluetooth angekoppelten Tastaturen mehr Aufmerksamkeit geschenkt. Man kann für diese in einem neuen Punkt „Tastatur“ unter den Bedienungshilfen jetzt folgendes einstellen:

  • Tastenwiederholung: Schaltet diese ein oder aus. Außerdem kann die Geschwindigkeit angepasst werden.
  • Ein-Finger-Bedienung: Ermöglicht das separate Drücken von Sondertasten, um nicht gleichzeitig mehrere Tasten drücken zu müssen.
  • Anschlagverzögerung: Ermöglicht das Einstellen der Zeit, die verstreichen muss, bis eine Taste als gedrückt erkannt wird.

Weiterhin kann für die Bildschirmtastatur eingestellt werden, ob diese bei Umschalten der Umschalttaste die Darstellung auf Groß- und Kleinschreibung ändern oder die bisherige Darstellung beibehalten soll.

Hilfe zu Tastenkombinationen

Eigentlich ist dies streng genommen gar keine Bedienungshilfe im klassischen Sinn, aber dennoch vielleicht nicht jedem sofort ersichtlich: Bedient man eine App mit externer Tastatur, kann man sich jetzt die unterstützten Tastenkombinationen anzeigen lassen, indem man die CMD-Taste ca. eine Sekunde lang gedrückt hält. Es erscheint dann eine Überlagerung mit den in diesem Fenster zur Verfügung stehenden Tastenbefehlen.

Hinweis für VoiceOver-Nutzer: Diese Überlagerung spricht in dieser Version noch nicht korrekt. Es fehlt die Ansage der eigentlichen Taste für die Funktion, und es werden immer zwei Funktionen gleichzeitig gelesen. Ich habe dies schon während der Beta-Phase an Apple gemeldet und hoffe, dass sie dies in einem baldigen Update korrigieren.

Touch-Anpassungen

Für diejenigen Anwender, die Probleme haben, den Touchscreen zu bedienen, gibt es jetzt mehrere Einstellungen zur Berührung, Haltedauer und Touch-Assistenten einstellen, um die Bedienung zu verbessern.

Schaltersteuerung

Bei der Schaltersteuerung gibt es eine deutliche Weiterentwicklung. Zum einen kann man jetzt schrittweise scannen. Man drückt so lange den Schalter, bis das gewünschte Element im Fokus ist und wartet dann die einzustellende Zeit ab, bis das Element aktiviert wird. Hierfür wird nur ein Schalter benötigt.

Ein neuer Modus „Immer Tippen“ verursacht, dass das Drücken des Schalters immer auf den Bildschirm tippt. Das Scannermenü ist dann als Icon am Ende der Elementfolge verfügbar anstatt als Aktion des Doppeltippens des Schalters.

Man kann dem langen Drücken eines Schalters jetzt eine separate Aktion zuweisen.

Weiterhin gibt es jetzt Abläufe, mit denen man bestimmte Gestenabfolgen einem Schalter zuweisen kann, die sich regelmäßig wiederholen sollen. Ein Beispiel hierfür ist das Umblättern von Seiten in iBooks. Entweder durch einen Timeout oder durch das lange Drücken des Schalters verlässt man diesen Ablauf dann wieder.

Es gibt noch einige weitere Änderungen wie eine für manche Benutzer vereinfachte Tastatureingabe. Schaut einfach mal in die Optionen, wenn ihr Schalter für die Steuerung von iOS verwendet!

Das Menü von AssistiveTouch anpassen

Bei AssistiveTouch kann man das Haupt- und die Untermenüs jetzt ändern und dieses somit besser auf die eigenen Bedürfnisse anpassen. Die Symbole im Hauptmenü können zwischen einem und acht liegen, und die Untermenüs sind frei konfigurierbar. Und wenn etwas schief gegangen ist, gibt es einen Zurücksetzen-Schalter.

Verbesserung der Lesbarkeit im Safari Reader

Der Reader-Modus in Safari, der viele Webseiten für eine bessere Lesbarkeit aufbereitet, hat einige neue Darstellungsoptionen bekommen, um das Lesen noch augenfreundlicher zu gestalten. Verbesserte Schriften und Farbkontraste sind nur einige der Neuerungen hier. Probiert es am besten einfach mal auf einer Webseite wie dieser aus, indem ihr oben neben der Adressleiste erst den Button für den Reader antippt und dann die neu erscheinenden Darstellungsoptionen ausprobiert!

Fazit

iOS 9 ist zuvorderst ein Update zur Stabilität und mit im Vergleich zu iOS 7 (komplett überarbeitete Benutzeroberfläche) und iOS 8 (Erweiterungen aller Art) mit vergleichsweise wenigen neuen Funktionen ausgestattet. Es wurden aber viele Probleme behoben und gerade bei den Bedienungshilfen doch einige echt nützliche Funktionen eingebaut, wie die deutlich verbesserte Textauswahl und eine sehr viel robustere Unterstützung externer Tastaturen.

Im Vergleich zu den letzten beiden großen Updates ist das Update auf iOS 9 in der Tat von Anfang an bedenkenlos möglich und zu empfehlen.

Tipp: Die Multitasking-Funktionen des iPad von iOS 9 mit VoiceOver bedienen

$
0
0

Ein Schwerpunkt des gerade erschienenen iOS 9 liegt auf der Erhöhung der Produktivität. Gerade die neueren iPads wie iPad Air 2, iPad Pro und das iPad Mini der vierten Generation bieten hier im Vergleich zu früheren Modellen einige spannende neue Funktionen. Eine ist das Multitasking, also das gleichzeitige Nutzen mehrerer Apps. Wie diese auch mit VoiceOver benutzt werden können, soll dieser Artikel zeigen.

Die Grundlagen

iOS konnte Multitasking, also das gleichzeitige Ausführen von mehreren Anwendungen, schon seit Version 4.0. Seitdem gibt es den App-Umschalter, der mit zweimaligem Drücken der Home-Taste erreicht wird. In iOS 7 kamen dann Hintergrundaktualisierungen hinzu, mit denen Apps ihre Inhalte auf batterieschonende Weise auch dann aktuell halten konnten, wenn sie nicht im Vordergrund waren.

Für iPads unter iOS 9 kommen jetzt noch weitere Modi hinzu: Überblendung (Slide Over), geteilter Bildschirm (Split View) und Bild-In-Bild für Videos. Jeder dieser Modi wird in den folgenden Abschnitten erklärt.

Überblendung

Ein Modus, der neben den oben genannten Modellen auch auf dem iPad Air und dem iPad Mini in der 2. und 3. Generation zur Verfügung steht, ist die Überblendung einer zweiten App über die erste. Die erste App wird abgeblendet, und die zweite legt sich am rechten Bildschirmrand darüber. Man benutzt in diesem Modus ausschließlich die zweite App, um mal eben etwas nachzugucken oder zu kopieren, schließt sie dann wieder und kehrt zur vorigen App zurück, ohne den Kontext zu verlieren.

Diese zweite App nimmt nur etwa 25% des Bildschirms ein und zeigt sich in einer schmalen Variante, die durchaus der Ansicht eines iPhone-Bildschirms entsprechen kann. Mail zeigt in diesem Modus z. B. entweder Ordner, Mails oder eine einzelne Nachricht an und hat oben links eine Zurück-Taste wie man diese vom iPhone kennt.

Man leitet die Überblendung mit VoiceOver ein, indem man auf die Statuszeile tippt und mit drei Fingern nach links streicht. Der VoiceOver-Hinweis für die Statuszeile wurde um einen entsprechenden Satz erweitert. Sehende Anwender wischen einfach von rechts auf den Bildschirm. Da dies mit VoiceOver aber so ohne weiteres nicht möglich ist, gibt es eben diese kontrollierte Art über den Drei-Finger-Wisch nach links über die Statuszeile.

Es wird dann die zuletzt genutzte App eingeblendet, die diesen Überblend-Modus unterstützt, also z. B. Mail, Safari, Nachrichten o. ä. Es steht zu erwarten, dass mit den für iOS 9 angepassten Updates von Apps noch mehr diesen Modus unterstützen werden.

Ist die App, die iOS einblendet, nicht die gewünschte App, kann man den sogenannten Seitenumschalter aktivieren. Dies tut man, indem man mit VoiceOver wieder mit drei Fingern nach links streicht. Jetzt wird eine Liste aller Apps angezeigt, die den Überblend-Modus unterstützen. Einfach durchwischen und mit Doppeltippen die gewünschte App aufrufen. Hier gibt es auch eine Möglichkeit, diesen Seiten-Umschalter wieder zu schließen.

Man arbeitet nun in der überblendeten App genauso wie üblich, halt nur beschränkt auf die rechte Seite des Bildschirms. Der Rest des Bildschirms ist eine große Taste zum Schließen dieser überblendeten App. Nach getaner Arbeit doppeltippt man also einfach darauf und kehrt so zur ursprünglichen Anwendung zurück, um dort weiter zu arbeiten.

Geteilter Bildschirm

Dieser Multitasking-Modus steht nur auf neueren iPad-Modellen zur Verfügung. iPad Air und das Mini der 2. und 3. Generation, sowie noch ältere iPads, bleiben außen vor. In diesem Modus werden zwei Apps nebeneinander angezeigt und können auch gleichzeitig bedient werden. Sie werden entweder im Verhältnis 70:30 oder 50:50 dargestellt. Die primäre App ist immer links und nimmt also entweder 70 oder 50 % der Bildschirmbreite ein. Die sekundäre App nimmt entsprechend 30 oder 50 Prozent der rechten Bildschirmseite ein.

Dieser Modus wird genauso eingeleitet wie der Überblend-Modus im vorigen Abschnitt. Man tippt also mit dem Finger auf die Statuszeile und wischt mit drei Fingern nach links. Jede sekundäre App beginnt ihr Leben also als überblendete App. Auf iPads der neueren Generation kommt allerdings ein senkrecht stehendes Element hinzu, das die überblendete App zur sekundären App machen kann, wenn diese das unterstützt. Dieser Bildschirm-Teiler unterstützt diverse VoiceOver-Aktionen, also durch auf- und abwärts wischen auswählbare Aktionen. Man kann mit ihm die App auf 30 % erweitern, die Liste der unterstützten Apps aufrufen oder die überblendete App wieder schließen. Spielen wir das doch mal an einem Beispiel durch:

  1. Öffnet auf eurem iPad die Mail-App. Sie wird im Vollbildmodus angezeigt.
  2. Tippt mit einem Finger auf die Statuszeile und wischt mit drei Fingern nach links. Es wird entweder die zuletzt verwendete App eingeblendet, die die Überblendung unterstützt, oder die Liste der diesen Modus unterstützenden Apps, falls sich iOS nicht von allein entscheiden kann, welche App die sinnvollste sein könnte. In meinem Fall kommt der Safari sofort rechts in den Vordergrund. Tut er das bei euch nicht, tippt noch einmal auf die Statuszeile und wischt mit drei Fingern nach links, um die Liste der Apps auszuwählen und wählt dort Safari durch Doppeltippen aus.
  3. Der Safari wird nun als Überblendung angezeigt, Mail ist nicht mehr aktiv. Links des Safari-Fensters befindet sich ein senkrechtes Element, das über die gesamte Bildschirmhöhe geht. VoiceOver nennt sie die Seiten-App-Trennlinie. Der VoiceOver-Hinweis dafür ist sehr aufschlussreich: Man soll zum Befestigen von Apps doppeltippen. Außerdem sind Aktionen verfügbar, die man über auf- und abwärts wischen und dann doppeltippen auswählen kann.
  4. Doppeltippt diese Seiten-App-Trennlinie, ohne eine gesonderte Aktion auszuwählen. VoiceOver sagt jetzt so etwas wie: „Mail links. Safari rechts.“
  5. Erforscht den Bildschirm mit dem Finger. Ihr werdet beide Apps in der Aufteilung Mail ca. 70% und Safari ca. 30% finden. Ihr könnt mit beiden Apps interagieren. Ruft z. B. in Safari eine andere Seite auf, kopiert deren Adresse und startet links eine neue Mail, in die ihr diese einfügt. Getrennt werden beide wieder durch die Seiten-App-Trennlinie.
  6. Diese Trennlinie bietet jetzt noch mehr Aktionen. Das Doppeltippen löst die Verankerung wieder, d. h., Safari würde in den Überblendungs-Modus zurückkehren. Eine weitere Aktion, die zur Verfügung gestellt wird, ist, den Seiten-App-Umschalter zu öffnen. Den kennen wir schon, dadurch wird eine andere sekundäre App gewählt, die diesen Modus unterstützt. Weiterhin kann Safari auf die halbe Bildschirmgröße skaliert werden. Das macht genau das: Safari und Mail teilen sich den Bildschirm dann 50:50. Mail sieht dann in jedem Fall aus wie im Hochformat, nicht mehr wie ein etwas verkleinertes Querformat. Und man kann Safari maximieren. Dies macht Safari danach automatisch zur Primäranwendung. Das ist besonders dann praktisch, wenn man merkt, dass man diese eigentlich als sekundäre App gestartete Interaktion länger braucht und mehr Platz des Bildschirms möchte. Und man kann Safari natürlich schließen. Dies würde Mail wieder in den Vollbildmodus zurückführen, in dem wir ja gestartet waren.
  7. Wählt nun die Option „Safari auf halbe Bildschirmbreite skalieren“ aus und doppeltippt. Safari und Mail teilen sich nun den Bildschirm zu je einer Hälfte.
  8. Findet die Seiten-App-Trennlinie und schließt Safari.

Diese Ansicht zweier Programme gleichzeitig ist sehr praktisch, wenn man z. B. für einen Blogbeitrag, eine E-Mail oder ein Dokument viel recherchieren muss und nicht ständig den App-Umschalter bemühen möchte, um z. B. aus dem Web verschiedene Dinge zusammenzusuchen. Safari und eine weitere App gleichzeitig angezeigt zu bekommen und einfach dort hineintippen und los arbeiten zu können ist ein unglaublicher Gewinn an Geschwindigkeit! So zugänglich und genial effizient kenne ich das nicht mal von Desktop-Anwendungen auf Mac oder PC, wo Screen Reader doch irgendwie immer auf das aktuelle Anwendungsfenster beschränkt sind und selbst die Trackpad-Steuerung von VoiceOver einem so etwas nicht ohne weiteres ermöglichen könnte.

Übrigens: Wer sich die Hinweise zur Seiten-App-Trennlinie ganz angehört hat, wird festgestellt haben, dass man diese auch mit doppeltippen und halten hin und her ziehen kann, um die sekundäre Anwendung auf 50% zu skalieren oder gar ganz zu maximieren. Wem’s beliebt, kann gern diese Technik nutzen, die für Sehende übrigens die gängige Methode ist, das zu machen. Ich finde aber die Aktionen dafür praktischer, ich finde das Ziehen von Elementen eher fummelig.

Bild-in-Bild

Zu guter letzt noch der Modus Bild-in-Bild, der genau das tut, was man schon seit längerem aus der Unterhaltungselektronik kennt: Man startet ein Video, z. B. in Safari oder der Videos-App, schaltet auf eine andere App um, und das Video läuft als kleines Bild inklusive Audio im Hintergrund in einer Bildschirmecke weiter. Früher war so etwas z. B. ein zweites Fernsehprogramm, das der Videorecorder aufzeichnete, das man in einer Ecke des Fernsehers mitlaufen lassen konnte, während man eigentlich einen anderen Film schaute.

Während der Videowiedergabe hat man nun neben den Tasten für Zurück, Wiedergabe/Pause und Vorwärts eine neue Taste namens „Bild in Bild“. Aktiviert man diese, verkrümelt sich das gerade laufende Video in einen freien Bildschirmbereich und kann dort jederzeit wiedergefunden werden. Man kann das Video anhalten und schließen oder es wieder ins Vollbild holen. Sehende können es weiterhin skalieren und es auch an verschiedene Stellen des Bildschirms verschieben. Und noch eine gute Nachricht: Auch diese Funktion ist für alle iPads ab iPad Air und iPad Mini 2 verfügbar.

Fazit

Ich hoffe, ihr könnt mit dieser Anleitung das iPad ebenso produktiver nutzen wie ich und erfreut euch in Zukunft noch an weiteren neuen Apps, die diese Möglichkeiten unterstützen! Zum Zeitpunkt des Erscheinens dieses Artikels sind bereits Pages, Numbers und Keynote von Apple und ihre Entsprechungen von Microsoft, also Word, Excel und PowerPoint, aufs iPad Air 2 und iOS 9 vorbereitet und im App Store erhältlich.

Viel Spaß!

Erstes Anfühlen von 3D Touch auf dem iPhone 6s und 6s Plus

$
0
0

Ich bin gerade in Toronto in Kanada auf einem Arbeitseinsatz, hatte aber am heutigen Samstag noch nichts zu tun und somit Zeit, zum örtlichen Apple Store zu marschieren und mir die neuen iPhone-Modelle 6s und 6s Plus anzuschauen.

Die Modelle sind am gestrigen 25.09. erst erschienen, und ich gehöre diesmal nicht zu denen, die eines am Erscheinungstag bekommen. Dennoch war ich natürlich sehr neugierig vor allem auf das neue Feature 3D Touch, das auch mit VoiceOver funktioniert.

3D Touch ist eine neue Art, mit dem Touchscreen des iPhones zu interagieren. Man kann Elemente jetzt nicht nur antippen und doppeltippen, sondern an der Stelle des Elements, das man auslösen möchte, auch fest aufs Display drücken. Je nach App geschieht dann eines von zwei Dingen: Entweder wird ein Kontextmenü aufgerufen, oder es gibt eine Vorschau des Elements, das man gerade drückt. Auf dem Home-Screen zum Beispiel bewirkt das Drücken vieler Apps das Erscheinen eines Kontextmenüs. Hier gibt es z. B. Optionen wie „neue Nachricht“ bei Nachrichten, eine Liste der Favoriten und die Möglichkeit, einen neuen Kontakt zu erstellen bei Telefon usw. Auch die ersten Apps von Drittherstellern bieten inzwischen Kontextmenüs für ihre App-Symbole an.

Drückt man jedoch zum Beispiel auf eine Mail in der Liste von Mails im Posteingang, wird eine Vorschau geöffnet, die auch mit VoiceOver zugänglich ist. Man drückt also, bekommt durch ein kurzes Vibrationssignal angezeigt, dass der Vorschau-Druck erkannt wurde, und die Vorschau erscheint. Man lässt seinen Finger auf dem Display und erforscht die Elemente. Drückt man nun noch etwas fester auf, wird die Mail tatsächlich geöffnet. Hebt man hingegen den Finger an, wird die Vorschau geschlossen, ohne die Mail als gelesen zu markieren. Wischt man ohne den Finger anzuheben nach rechts, ist man in der Vorschau nun in einem Modus, in dem jede VoiceOver-Geste funktioniert. In jeden Fall kommt man mit der Zickzack-Geste wieder zurück, also sowohl aus der Vorschau als auch den Kontextmenüs.

Drückt man auf ein Element, das keine 3D-Touch-Aktionen unterstützt, wird einem dies durch zwei kurze Vibrationen angezeigt.

Es gibt drei Stufen, auf die man 3D Touch einstellen kann: Leicht, Mittel oder Fest. Dies steuert, wie stark man auf das Display drücken muss, um 3D Touch auszulösen. Standardmäßig ist Mittel eingestellt. In diesem Modus muss zumindest ich schon kräftig drücken, um den 3D Touch auszulösen. Denke, sobald ich mein neues iPhone habe, wird meine Einstellung wohl die leichte sein, da ich kein Anwender bin, der beim normalen tippen stark aufs Display drückt.

Will man auf den neuen iPhones 3D Touch gar nicht nutzen, kann man es auch komplett ausschalten. Die Einstellungen finden sich alle unter den Bedienungshilfen unter der Überschrift „Interaktion“, und zwar unabhängig davon, ob VoiceOver läuft oder nicht.

Was ich sehr beeindruckend fand, war, dass ich das Gefühl hatte, mein Finger würde tatsächlich das Display etwas eindrücken oder darin „versinken“. Ob dies tatsächlich so ist oder lediglich eine clevere Illusion darstellt, entzieht sich meiner Kenntnis. Als ich dieses Gefühl das erste Mal hatte, erschrak ich glatt, da ich fast das Gefühl hatte, ich könnte eventuell was kaputt machen oder zu stark gedrückt haben. Aber Apple verwendet in diesen neuen iPhones ein sehr viel stärkeres Displayglas als früher, und zwar das gleiche verstärkte Glas, das auch in der Apple Watch zum Einsatz kommt. Also scheint es sich tatsächlich um eine clevere Illusion zu handeln. Auf jeden Fall verstärkt es den Eindruck, dass dieser 3D Touch auch haptisch ein echtes 3D-Erlebnis ist.

Ein Hinweis nochmal in aller Deutlichkeit für VoiceOver-Nutzer: Man kann 3D Touch nur direkt auf dem Element ausführen. Einfach per wischen ein Element in den VoiceOver-Fokus bringen und dann irgendwo drücken funktioniert in diesem Fall nicht. Hier ist es also tatsächlich nötig, sich mit der Lage von Elementen vertraut zu machen und diese dann gezielt anzutippen und dann zu drücken.

Ansonsten kann ich zu den neuen iPhone-Modellen noch sagen, dass sie einen besseren Grip haben als das 6 und 6 Plus. Das liegt unter anderem auch daran, dass Apple durch das verstärkte Glas an anderer Stelle Beschichtungen weglassen konnte, die den Grip beeinträchtigten.

Die neuen Geräte machen einen guten Eindruck, sind sehr schnell, deutlich schneller als das 6 und 6 Plus beim Öffnen und Umschalten von Apps und VoiceOver-Reaktionszeiten. 3D Touch ist eine interessante neue Bedienweise für Apps, die auch für VoiceOver zugänglich ist. Obwohl sie also beim Namen nur ein s hinzu bekommen haben, sind es doch richtig große Upgrades der Geräte geworden. Ich freue mich auf meines! :-)

Eine Fahrt in einem Tesla Model S

$
0
0

Ich hatte es neulich auf Twitter und Facebook schon mal angedeutet, aber hier möchte ich nochmal ausführlicher über meine erste Fahrt bzw. Mitfahrt in einem Elektroauto berichten.

Letzte Woche wurde ich vom Mozilla-Büro abgeholt und zum Flughafen Toronto gefahren. Der Fahrer fuhr ein Tesla Model S, also ein Elektroauto. Es war das erste Mal, dass ich mit so einem Wagen mitgefahren bin. Hybridautos wie die von Toyota kannte ich schon, aber eben noch kein vollelektrisches Fahrzeug.

Und ich muss sagen, dass ich tief beeindruckt war. Außer einem leisen Sirren beim Beschleunigen und Abbremsen war kein Motorengeräusch zu hören. Das Sirren erinnerte mich an moderne U oder S-Bahn-Züge, nur nicht so laut. Ansonsten war das einzige Geräusch dasjenige, welches durch die Interaktion von Reifen und Straßenbelag verursacht wurde. Je besser der Belag, desto ruhiger glitt das Auto dahin. Und ja, es fuhr nicht, es glitt förmlich. Keine Vibrationen durch einen Motor, und selbst auf dem Stück Autobahn, das wir fuhren, konnte man sich bequem unterhalten, da es kaum lauter war als im Stadtverkehr. Das Fahren fühlte sich regelrecht edel an.

Als Blindem sind mir aber natürlich die Probleme, die dies für mich und andere als Fußgänger verursacht, sehr bewusst. Als wir ausgestiegen waren und der Fahrer abfuhr, hörte ich nichts davon. Die anderen Autos waren einfach zu laut, genauso wie der restliche Umgebungslärm. Solange diese Autos also mit den lärmenden Benzinern und Dieseln koexistieren müssen, brauchen sie eine akustische Markierung nach außen hin, sonst hört man sie nicht. Wenn so ein Auto an einer Ampel steht, hört man es schlicht und einfach nicht. OK, das gilt auch für Hybrid-Fahrzeuge, aber die machen ja ab irgend einem Punkt wieder Motorengeräusche.

Der Fahrer sagte aber was sehr interessantes, als wir während der Fahrt über diese Problematik sprachen. Er fährt vorsichtiger, seit er den Tesla fährt. Ihm ist sehr wohl bewusst, dass Menschen auf der Straße ihn nicht hören können, und er meinte damit nicht nur Blinde.

In meiner Brust schlagen definitiv zwei Herzen: Das eine ist das umweltbewusste, das ganz klar möchte, dass sich diese Autos sehr sehr schnell durchsetzen und die Benziner und Diesel von der Straße verdrängen. Das andere ist das des Blinden, der immer hofft und bangt, dass die Fahrer von Elektroautos so verantwortungsbewusst sind und die akustischen Warnvorrichtungen, die es in Elektroautos gibt, nutzen und nicht grundsätzlich abschalten. Erst, wenn alle Autos elektrisch sind und keine lärmenden Altfahrzeuge sie mehr übertönen können, ist ein sicheres Miteinander ohne akustische Sondervorrichtungen wieder möglich, denke ich.

Die Grundregeln zugänglicher Webseiten

$
0
0

Ich werde immer wieder gefragt, was denn die absolut grundlegenden Dinge sind, die man als Webentwicklerin und Webentwickler kennen sollte, um Webseiten so zu schreiben, dass sie möglichst zugänglich sind.

Ich hatte eigentlich angenommen, dass es hierzu schon zahlreiches Material im Web gibt und dass es nicht schwierig sein dürfte, dieses auch zu finden. Da die Frage aber immer und immer wieder aufkommt, habe ich nun beschlossen, meine eigene Sicht dieser absoluten Grundlagen aufzuschreiben. Hier ist sie also nun, meine persönliche Liste der Grundlegenden Dinge für zugängliche Webseiten.

Alternativtexte für Bilder

Eine der häufigsten Fragen, die mir gestellt wird, ist, welche Bilder auf Webseiten Alternativtext brauchen. Zu dieser Frage gibt es eine dreiteilige Antwort:

  1. Jeder auf einer Seite verwendete img Tag benötigt ein alt-Attribut. Diese Regel gilt ohne Ausnahme. Alles andere ist ein Fehler. Wenn ihr also einen img Tag auf eurer Seite hat, der kein alt-Attribut hat, fügt es jetzt hinzu.
  2. Jedes alt-Attribut benötigt einen Wert. Und hier wird es spannend! Wenn der img Tag z. B. Teil eines a tags ist, muss er eine Bedeutung haben, weil sonst der Sinn des Links nicht verstanden werden kann. Auch wenn eine Grafik zum Verständnis von Fließtext beiträgt, muss der Alternativtext eine Bedeutung haben. Was der beste Alternativtext ist, ist immer noch Gegenstand manchmal hitziger Debatten. Meine Faustregel lautet: Nutzt den gesunden Menschenverstand. Beschreibt das Bild kurz, vermeidet aber die Worte „Grafik von“ oder „Bild von“, da Screen Reader bereits wissen, dass es sich um ein Bild bzw. eine Grafik handelt. Hat das Bild auf der anderen Seite einen rein dekorativen Zweck, ist also lediglich schmückendes Beiwerk, für das Verständnis der Seite aber nicht von Bedeutung, muss der Alternativtext aus zwei aufeinanderfolgenden Anführungszeichen bestehen, also „“. Diese dürfen nicht fehlen oder das alt-Attribut nicht weggelassen werden.
  3. Es heißt alt-Attribut, Alternativtext, alternativer Text, aber niemals Alt-Tag. alt ist das Attribut des img Tags, kein eigener HTML-Tag.

All diese Regeln gelten ohne Ausnahme auch für SVGs, hier dargestellt durch den title, und bei Verwendung des picture Elements.

Die korrekte Implementierung von Alternativtexten hilft übrigens nicht nur Blinden und Sehbehinderten mit Screen Readern, sondern auch z. B. auf Mobilgeräten mit schlechter Internetverbindung, über die Bilder vielleicht nicht korrekt geladen werden können. Ein guter Alternativtext hilft also viel mehr Besuchern eurer Webseiten, als ihr es euch zunächst vorstellen könnt!

Formularfelder korrekt beschriften

Eine weitere sehr häufige Frage betrifft das korrekte Beschriften von Formularfeldern. Dies ist auch einer der weitaus häufigsten Fehler, die mir auf Webseiten selbst im Jahr 2016 beim täglichen Surfen über den Weg laufen. Wenn ich mit Webentwicklern zu tun habe, denen solche Fehler passiert sind, ist es schon häufig vorgekommen, dass diesen überhaupt nicht bekannt war, dass es das label Element überhaupt gibt.

Hier kommen nun die wichtigsten Regeln für das korrekte Auszeichnen von Formularfeldern:

  1. Die meisten input Elemente, das select und das textarea Element benötigen ein zugehöriges label Element, das deren Zweck angibt. Lediglich diejenigen Typen des input Elements, die Schaltflächen produzieren, bekommen eine Beschriftung durch ein weiteres Attribut oder inneren Text, also button, reset und submit. Alle anderen Typen wie text, checkbox, password, radio, search usw. benötigen eine Beschriftung durch ein label Element.
  2. Die Zuordnung des label Elements zum input, select oder textarea Elements erfolgt, indem man letzteren eine eindeutige ID durch das id-Attribut gibt und diese dann in das for-Attribut des label Elements einträgt. Um zu testen, ob die Zuordnung auch tatsächlich geklappt hat, klickt man auf die Beschriftung, nicht das input Element. Erhält das input Element den Tastaturfokus? Wenn ja, hat die Zuordnung geklappt, und zukünftig werden Screen Reader eindeutig identifizieren können, wofür ein Feld gedacht ist. Außerdem erhöht dies die Größe des Klick-Bereiches. Das hilft nicht nur auf Mobilgeräten, wo die Bereiche zum Berühren eines Feldes eh verkleinert sind, sondern auch Menschen mit motorischen Einschränkungen, die die Maus vielleicht nicht millimetergenau steuern können.
  3. Nutzt unter gar keinen Umständen das placeholder-Attribut als Ersatz für ein richtiges label! Dieser englischsprachige Artikel erklärt ausführlich, dass dieses Attribut nicht unproblematisch ist. Die wichtigsten Punkte sind, dass zum einen der Kontrast viel zu niedrig sein kann und man umständlich mit CSS nacharbeiten muss. Außerdem verschwindet die Beschriftung, sobald man Text in das Feld eingibt, so dass der Kontext verloren geht. Menschen mit Leseschwäche oder anderen kognitiven Einschränkungen werden hier große Schwierigkeiten bekommen, da sie nicht mehr wissen, was in welches Feld gehört. Oder stellt euch einfach vor, ihr habt ein Formularfeld mit 30 Eingabefeldern, aus denen die Beschriftungen verschwinden. Na, wisst ihr nach einer Minute noch, was ins 11. Feld gehört? Weiterhin ist die Unterstützung in den Browsern sehr inkonsistent. Bei manchen taucht die Beschriftung wieder auf, wenn man den Text ganz rauslöscht, bei anderen nicht, und die Spezifikation ist hier nicht eindeutig. Dies ist auch der Grund, weswegen die Unterstützung für Screen Reader variieren kann. Während ein Platzhalter also eine Hilfestellung sein kann, sollte es niemals die primäre Quelle einer Beschriftung für ein Eingabefeld sein!
  4. Gebt button Elementen inneren Text, oder wenn es eine Grafik sein muss, gebt dieser einen Alternativtext, der einer sichtbaren Textbeschriftung entsprechen würde. Siehe auch die Sektion zum Beschriften von Grafiken weiter oben. Und wie auch im MDN-Artikel angeraten, nutzt das button Element lieber als ein input mit typ „button“, da dieses besser mit Styles versehen werden kann. Außerdem ist dies dasjenige Element, an das ihr euch immer vertrauensvoll wenden solltet, wenn ihr eigentlich vorhattet, ein div oder span Element mit hunderten Kilobytes JavaScript anklickbar zu machen. Nehmt stattdessen das button Element, das kann nämlich automatisch angeklickt werden, hat Tastaturnavigierbarkeit und auch sonst alles, was ihr braucht.
  5. Eine zusammengehörige Gruppe von radio buttons gehören in ein fieldset Element. Das erste Element innerhalb des fieldset Elements ist das legend Element, welches die eigentliche Frage zu den gruppierten radio buttons enthält.
  6. fieldset und legend werden auch verwendet, um in einem komplexeren Formular Untergruppen zu bilden. Dies macht das Formular übersichtlicher und gibt ihm eine logische Struktur. Das fieldset Element kann mehr als nur radio buttons aufnehmen.
  7. Zeichnet erforderliche Felder mit dem required-Attribut aus HTML5 aus und gebt zusätzlich der Beschriftung das Wort „erforderlich“ mit oder fügt am Beginn eures Formulars eine Legende ein, die besagt, dass z. B. mit einem Sternchen „*“ markierte Felder erforderlich sind. Zeichnet erforderliche Felder nicht nur durch eine andere Farbgebung aus. Screen-Reader-Nutzer können diese nicht erfassen, und Menschen mit einer Farbfehlsichtigkeit ebensowenig, und das sind immerhin 8 Prozent der  männlichen Bevölkerung weltweit.
  8. Gebt für E-Mail-Adressen, URLs, Telefonnummern usw. die richtigen type-Attributwerte aus dem HTML5-Standard an. Nutzer mobiler Geräte werden es euch danken, denn diese erzeugen automatisch die richtige Tastatur für die Eingabe des geforderten Wertes. Außerdem macht es euch die Auswertung leichter, da der Browser automatisch weiß, ob ein gültiger Wert eingegeben wurde. Alle modernen Browser können das. Solltet ihr noch ältere Browser unterstützen müssen, fallen diese automatisch auf den Typ „text“ zurück, und der ist für all diese Fälle der korrekte Fallback.
  9. Stellt sicher, dass der Tastaturfokus immer sichtbar ist. Wenn ihr einen Rahmen um euer input erscheinen seht, wenn ihr mit der Maus hineinklickt, muss dieser Rahmen auch erscheinen, wenn ihr mit der Tab-Taste durch euer Formular wandert. Taucht der Rahmen nicht auf, müsst ihr die CSS-Auszeichnungen für :focus und :active für diese Elemente überprüfen und korrigieren.

Braucht ihr etwas, das etwas anspruchsvoller aussieht als es die Standard-Stylings der input Elemente hergeben, fallt bitte nicht darauf zurück, divs und spans klickbar zu machen. Wenn ihr das nämlich tut, müsst ihr Rollen, Zustände, Tabstops, das Reagieren auf Tastatureingaben usw. alles selbst mit JavaScript implementieren. Nutzt stattdessen lieber Dinge wie span Elemente innerhalb eurer labels, um ein besseres Styling hinzubekommen. Dies garantiert, dass die Zugänglichkeit euch gleich mit geschenkt wird und erspart eine Menge Arbeit.

Dokumentstruktur

Es ist kaum zu glauben, aber im Kern basiert das Web auf einer Dokumentenstruktur. Selbst wenn wir also schöne komplexe Webanwendungen wie Gmail bauen, liegt diesen doch immer ein Dokument zu Grunde. Und es gibt viel, das ihr semantisch für die Struktur eurer Dokumente tun könnt, das euch im Normalfall zwischen 80 und 90 Prozent der Zugänglichkeit frei Haus liefert. Zum Beispiel:

Überschriften

Sind euch die verschiedenen Überschriften in diesem Blogbeitrag aufgefallen? Dafür gibt es Elemente, nämlich die heading Elemente. Diese stellen eine sechsstufige Überschriftenstruktur zur Verfügung. Es gibt eine Hauptüberschrift auf Ebene 1, Unterüberschriften auf Ebene 2, und weitere Unterüberschriften für Abschnitte wie diesen hier zum Beispiel. Die richtige Anwendung dieser Elemente gibt euren Dokumenten eine logische, einfach zu folgende Struktur. Habt ihr euch nie gefragt, wie Wikipedia in seinen Artikeln die verschachtelten Inhaltsverzeichnisse zusammenbaut? Sie nutzen dafür genau diese Abstufungen. Die richtige Überschriftenstruktur hilft Screen Readern, Suchmaschinen und anderen Technologien, die Struktur eurer Webseiten zu verstehen und richtig zu indizieren. Vermischt die Stufen nur, wenn die Struktur es erfordert, und lasst wenn irgendmöglich keine Überschriftenebene aus. Und schreibt bitte nie, nie wieder so etwas wie ein div Element mit einer Klasse „heading1“ in euren Code! Damit können weder Screen Reader noch Suchmaschinen etwas anfangen! Sie werden aber genau wissen, was sie mit eurer Überschriftenstruktur anfangen können!

Landmarks (Wegmarkierungen)

Eine weitere Möglichkeit, eurem Dokument strukturelle Merkmale zu geben, sind sogenannte Landmark-Elemente. Diese sind article, aside, footer, header, nav und main. Richtig angewandt verleihen diese Elemente euren Dokumenten deutlich mehr Möglichkeiten zur Navigation.

Listen

HTML kennt verschiedene Arten von Listen. Es gibt unsortierte und sortierte (numerierte) Listen. Man kann das Aufzählungs- bzw. Numerierungsmuster angeben, sie verschachteln, und der Browser übernimmt den Rest. Man kann das visuelle Layout weiter anpassen und dem Dokument dadurch noch mehr Bedeutung und Struktur geben. In diesem Blogbeitrag sind bereits zwei numerierte Listen vorgekommen.

Es gibt noch einen weiteren Listentyp, nämlich sogenannte Definitionslisten, die dazu geeignet sind, Gruppen aus Begriffen und deren Erklärung zu bilden. Der MDN-Artikel zum dl Element enthält eine Reihe sehr guter Beispiele für deren Einsatz.

Weitere

Wusstet ihr schon, dass es ein Element in HTML gibt, mit dem man Absätze kennzeichnet? Es heißt p. Zitate, die einen eigenen Absatz benötigen, zeichnet man mit dem blockquote Element aus. Kurze Zitatschnipsel, die man in seinen Fließtext einbettet, werden hingegen mit dem q Element ausgezeichnet. Horizontale Trennlinien werden mit dem hr Element erzeugt.

All diese Elemente werden dann mit CSS weiter gestaltet, wie z. B. deren Einrückung und Abstände definiert usw. Dies beeinflusst dann nicht die Semantik, gibt euren Dokumenten aber ein individuelles und optisch ansprechendes Layout, das euren Vorstellungen oder denen eures Auftraggebers entspricht.

Tabellen

HTML-Tabellen sind eine eigene Kategorie von Elementen. Sie sind sehr nützlich, um strukturierte Daten semantisch korrekt darzustellen. Produktdetails, Preislisten, Warenkörbe mit Zwischen- und Endsummen sind nur einige Beispiele von strukturierten Daten, für deren Einsatz das table Element vorgesehen ist.

Historisch bedingt gibt es jedoch auch viele Fälle, in denen das arme table Element dazu missbraucht wurde, um das Layout für eine Seite zu erzeugen. Diese Unsitte stammt noch aus der zeit vor HTML 4 und dem Siegeszug von CSS, hält sich aber hartnäckig sogar bis ins Jahr 2016. Ich finde noch heute Formulare, die mit Hilfe von sogenannten Layouttabellen gestaltet wurden, um Label und deren Formularfelder optisch auszurichten. Hört BITTE damit auf! Danke!

Hier sind nun einige Tipps zum richtigen Einsatz von Datentabellen:

  1. Fügt als erstes ein caption Element in eure Tabelle ein, um ihr eine Überschrift oder Zusammenfassung von deren Inhalt zu geben.
  2. Nutzt das th Element, um Zeilen- und Spaltenüberschriften auszuzeichnen, und nutzt dessen Attribute wie scope, um genau festzulegen, welche Überschrift wofür gilt.
  3. Nutzt die weiteren im Abschnitt „Siehe auch“ des table Elements angegebenen Elemente, um eure Tabelle weiter zu strukturieren.
  4. Sollte eine Tabelle zu komplex werden oder aus mehreren Abschnitten bestehen, die nicht direkt zusammen gehören, spaltet diese in mehrere Tabellen auf.

Für weiterführende Informationen möchte ich euch gern die Benimmregeln für Datentabellen von Tomas Caspers, veröffentlicht auf den Seiten von Jan Eric Hellbusch, ans Herz legen.

Ein paar weitere Quickies

Hier sind noch ein paar weitere Dinge, die ihr leicht prüfen könnt, wenn ihr HTML, CSS und JavaScript schreibt:

Trennt die Konzepte voneinander

HTML definiert die Struktur eures Inhalts. Dies ist es, was Screen Reader und andere Hilfstechnologien auswerten, um ihren Anwendern eine Repräsentation eurer Seite anzubieten.

CSS definiert, wie sich dieser Inhalt optisch präsentiert. Durch Einrückungen, Abstände, Ränder, Farbgebungen usw. wird dies festgelegt. Diese Attribute haben bis auf wenige Ausnahmen keinen Einfluss darauf, wie der Inhalt von Hilfstechnologien präsentiert wird. Die Ausnahmen sind die Benutzung von display: none; bzw. visiblity:hidden; welche tatsächlich dafür sorgen, dass auch Hilfstechnologien diese Inhalte nicht anzeigen werden. Siehe hierzu auch meinen Beitrag „Verstecken von Inhalten entwirrt„. Außerdem wird der CSS-Text :before und :after ausgewertet. Seid also achtsam, was ihr da hineinschreibt!

JavaScript fügt eurer Seite dynamische Funktionen hinzu. Seine Ausgabe muss ebenfalls semantisches HTML und CSS sein, wenn es das DOM verändert. JavaScript selbst ist kein Problem für die Zugänglichkeit, nur bestimmte Verhaltensweisen, die daraus resultieren, können es sein, wie z. B. der Verlust des Tastaturfokus oder Popups, die keine vernünftige Steuerung haben.

Je besser ihr die drei Konzepte voneinander trennt, desto wartbarer wird euer Code sein. Packt CSS in seine eigenen Dateien und bettet es nicht ins HTML ein. Genauso gehören JS-Module in eigene Dateien und nicht in den HTML-Code „hineingeschmiert“. Diese klare Trennung erinnert euch dann auch daran, dass die Konzepte ganz klar getrennt gehören und lediglich zusammenarbeiten, anstatt eine undurchdringliche Masse zu bilden.

Farbkontraste

Habt ihr schon mal im grellen Sonnenlicht gestanden und euch gewundert, warum ihr etwas auf einer Webseite nicht auf eurem Smartphone oder Tablet lesen konntet, das ihr in der Hand hieltet? Ihr wurdet das Opfer von einem zu geringem Kontrast zwischen der Vorder- und Hintergrundfarbe. Zu geringe Farbkontraste führen in starkem Umgebungslicht zu einer schlechten Lesbarkeit. Für die immer älter werdende Bevölkerung, aber auch für Sehbehinderte, bedeuten zu geringe Kontraste eine fast unüberwindbare Hürde. Die Richtlinien zur Zugänglichkeit von Webinhalten des W3C (WCAG 2.0) verlangen als Erfolgskriterium ein Kontrastverhältnis von 4,5:1. Ihr könnt Tools wie den Colour Contrast Analyser verwenden, um zu ermitteln, ob eure visuelle Darstellung dieses Kriterium erfüllt. Selbst wenn ihr nicht für die Erfüllung der WCAG- oder BITV2-Kriterien entwickelt, ist es eine gute Idee, dieses Kontrastverhältnis einzuhalten. Eure Augen und die vieler anderer Besucher eurer Webseite werden es euch danken!

Rettet die Ziehen-zum-Zoomen-Geste!

Wenn ihr für Mobilgeräte entwickelt – und heute ist dies sehr wahrscheinlich -, bitte behaltet die Ziehen-zum-Zoomen-Geste bei! Wenn ihr diese nämlich abklemmt, wird dies Lesbarkeitsprobleme für viel mehr eurer Besucher nach sich ziehen, als ihr es euch vorstellen könnt! Das betrifft nicht nur ältere Besucher oder solche mit einer Sehbehinderung. Fast jeder wird im Laufe seines oder ihres Lebens eine Webseite zoomen wollen, weil die Schrift zu klein ist oder die Lichtverhältnisse es erfordern. Sollte euer jetziges Layout mit dem Zoomen nicht zurechtkommen, verwendet bitte die Zeit darauf, diese Probleme zu beheben und euer Layout echt responsive zu machen.

OK, aber was ist mit Widgets für Fortgeschrittene?

Wenn ihr tatsächlich Widgets bauen müsst, die es in HTML noch nicht gibt, müsst ihr Sorge dafür tragen, dass ihr sämtliche Rollen, Zustände, Tastaturnavigation und sonstige Kriterien für diese Widgets implementiert. Für die folgenden Themen gibt es weiterführende, allerdings englischsprachige, Materialien im Web:

Es liegt alles an der Semantik

Wie inzwischen klar geworden sein sollte, bringt schon der richtige Einsatz der vorhandenen HTML-Elemente die Zugänglichkeit auf über 80, wenn nicht sogar über 90 Prozent. Alles weitere ist dann noch ein bisschen Styling und JavaScript, wenn es irgendwo hakt.

Nur wenn es tatsächlich darum geht, sehr angereicherte Widgets zur Verfügung zu stellen, die nicht Teil des HTML-Standards sind, müsst ihr euch mit weiterführenden Standards wie WAI-ARIA beschäftigen. Aber selbst dessen erste Regel ist: Verwendet es nicht, wenn ihr nicht unbedingt müsst. Einfach alles mit WAI-ARIA-Attributen, die man per Zufall bei Google findet, zu übergießen, macht mehr kaputt als es hilft. Versprochen!

Schlussbemerkungen

Wenn es eines gibt, das ich mir für 2016 von der Webentwickler-Gemeinde wünsche, ist es dieses: Seid gute Bewohner des Web und lernt ordentliches HTML und CSS, bevor ihr überhaupt daran denkt, eines der vielen JavaScript-Frameworks anzufassen! Diese Frameworks sind alle ohne Zweifel sehr mächtig und bieten tolle Funktionen; bevor ihr aber hunderte Kilobytes an JavaScript-Code einbindet, um ein Element klickbar zu machen, prüft doch lieber, ob ein einfaches button Element es nicht auch genauso gut oder sogar besser kann!

Verwendet die richtige Semantik und erspart euch so jede Menge Arbeit! Denn alle Standardelemente liefern die Zugänglichkeit schon frei Haus mit!

Gebt euer Wissen weiter! Wenn ihr gutes HTML und CSS sprecht, teilt euer Wissen mit anderen! Bringt euch ein, teilt euer Wissen und eure Erfahrung! Ihr werdet mit jeder Beteiligung an einem Projekt oder einer Diskussion immer mindestens zwei mehr Leuten helfen als denen, die offensichtlich sind.

Und wenn ihr wirklich ganz tief in die Materie einsteigen wollt, empfehle ich euch noch dieses Buch von Jan Eric Hellbusch und Kerstin Probiesch: Barrierefreiheit verstehen und umsetzen: Webstandards für ein zugängliches und nutzbares Internet (Amazon Partnerlink), oder auch in unseren Kreisen gern „die Bibel“ genannt. 😉 Da steht wirklich so ziemlich alles drin, was man übers Thema lernen kann.

Ich hoffe, dass dieser Artikel zeigen konnte, wie einfach es ist, über 80, wenn nicht sogar über 90 Prozent Zugänglichkeit von Webseiten allein dadurch zu erreichen, dass man semantische Regeln und Webstandards einhält. Ihr seid herzlich eingeladen, eure Gedanken hierzu in den Kommentaren unten zu teilen! Und sollte ich etwas übersehen haben, was eurer Meinung nach unbedingt in diese Liste gehört, lasst es mich gern wissen, und ich füge es hinzu.

Vielen Dank!

Updates

  • Autoren für den Artikel „Benimmregeln für Datentabellen“ korrigiert.
  • Den Aufzählungspunkt zum placeholder-Attribut abgeschwächt und ergänzt.

Stand der Zugänglichkeit von Slack

$
0
0

In den vergangenen Monaten ist der Name des Dienstes Slack immer häufiger in sozialen Netzwerken, Presseartikeln oder bei an mich gerichteten Anfragen aufgetaucht. Zeit, sich mal genauer mit dessen Zugänglichkeit zu befassen.

Was ist Slack?

Slack ist ein Sofortnachrichten- oder Chat-Dienst für Teams. Ursprünglich für den Einsatz in Unternehmen gedacht, erfreut es sich inzwischen bei immer mehr Open-Source-Communities wie der von WordPress wachsender Beliebtheit. Es basierte zunächst auf dem alten Internet Relay Chat (IRC) Protokoll, hat sich von diesem aber inzwischen weg entwickelt. Während man, um an einem IR Chat teilnehmen zu können, ein gewisses technisches Verständnis haben muss und Angaben wie IRC-Server braucht, ist es bei Slack sehr einfach, sich zu registrieren. Man benötigt entweder eine Einladung oder muss sich mit Hilfe einer Webseite selbst eine schicken lassen, indem man einfach nur die E-Mail-Adresse eingibt. Danach wählt man lediglich einen Chat-Spitznamen und ein Passwort, und los geht’s. Bei IRC ist der Nachteil, dass jedes Netzwerk eigene Regeln zur Identifizierung hat, wenn es überhaupt welche gibt. Auch ist IRC je nach Netzwerk sehr anfällig für Störungen durch sogenannte Netzaufspaltungen (Net Split). Bei Slack ist alles zentral angelegt.

Ein weiterer Vorteil von Slack ist, dass alle möglichen und unmöglichen Dienste eingebunden werden können. Das reicht vom Anzeigen einfacher Tweets über das Teilen von Dokumenten oder anderen Dateien per Dropbox, Google Drive, Box usw. mit dem gesamten Team, über die Integration des Aufgabenverwaltungsdienstes Trello bis hin zur Integration von Skype oder Google Hangouts, um mit einem einzigen Befehl aus Slack heraus einen Gruppenanruf zu starten. Selbst ein Blumenkübel soll über Slack schon bescheid gesagt haben, dass er umgefallen ist – ähem tschuldigung – seine Einwohner neues Wasser benötigen.

Slack möchte eine moderne Form der Teamkommunikation sein, die auch die Nachteile von E-Mail-Threads und verschiedenen Kommunikationskanälen ausgleichen will. Idealerweise ist Slack also der Nachrichten-Hub fürs gesamte Team, über den alles ausgetauscht wird und somit alle immer auf dem neuesten Stand sind. Die Historie ist sogar für neu hinzugefügte Teammitglieder vollständig einsehbar, was ja z. B. bei schon abgeschlossenen E-Mail-Diskussionen nicht der Fall ist, es sei denn, man macht eine sehr umständliche Weiterleitungsorgie.

Wie kam ich zu Slack?

Auslöser für mich war die Gründung einer englischsprachigen Interessengruppe rund um die Zugänglichkeit im Web, die a11ySlackers. Von Berichten von Freunden wusste ich, dass die iOS App recht zugänglich sein sollte, das Webinterface hingegen nicht.

Meine ersten Gehversuche verliefen aber wenig erfolgversprechend. Das Erhalten einer Einladung und die Registrierung klappten, und die Webseite hielt in der Tat, was sie versprach. Die iOS App jedoch, die zugänglich sein sollte, hatte einen sehr komischen Scroll-Fehler, durch den es mir kaum möglich war, die Unterhaltung richtig zu verfolgen. Ich gab den Versuch also auf und nahm den Weg über Gitter, dessen IRC-Brücke und den Dienst IRCCloud, einen webbasierten IRC-Client, der und dessen iOS App gut zugänglich sind.

Anfang Januar 2016 verkündete Christian Heilmann jedoch, dass er eine Slack-Gruppe für diejenigen gegründet hat, die regelmäßig Vorträge rund ums Web halten und ansonsten auch Webentwicklern bei allen möglichen und unmöglichen Dingen helfen. Im Englischen nennt man das Developer Evangelist oder Advocate, deutsche Begriffe sind mir dafür nicht bekannt.

Basierend auf meinen oben geschilderten Erfahrungen aus dem September 2015 war ich sehr enttäuscht, weil ich so ohne weiteres an diesem Team nicht würde teilnehmen können. Ich äußerte dies auch und schlug stattdessen vor, das doch viel zugänglichere IRC und einen vernünftigen IRC-Client zu nehmen. Christian schlug mir im Gegenzug vor, dass wegen der deutlich besseren Features und des User Interfaces man doch viel lieber die Macher von Slack dazu bringen sollte, ihre Arbeit richtig zu machen. Er hat diesen Austausch und seine Gedanken dazu in einem englischsprachigen Artikel namens „Don’t use Slack?“ zusammengefasst. Dennoch fühlte ich mich zunächst mal ziemlich außen vor, um nicht zu sagen ausgesperrt.

Nachdem ich eine Nacht drüber geschlafen hatte, reifte in mir der Entschluss, diese Frustration in etwas positives umzukehren und tatsächlich zu versuchen, irgendwie einen Fuß in die Tür bei Slack zu kriegen, um zu helfen, dass deren Clients in Zukunft zugänglicher für Menschen werden, die Screen Reader oder andere Hilfstechnologien nutzen müssen. Denn es gibt einiges zu tun!

Die Webseite

Wie bereits angedeutet, ist die Webseite im Informations- und Registrierungsbereich zwar recht OK, im eigentlichen Bereich der Applikation besteht sie aber quasi komplett aus nicht semantischen div und span Elementen mit Klick-Behandlern. Es gibt zwar ein korrektes mehrzeiliges Eingabefeld für die Chatnachrichten, die man selbst schreibt, und hier und da ist auch ein Link zu finden. Aber sämtliche Popups oder Overlays, die nur erscheinen, wenn man mit der Maus drüber geht und die Chatausgabe eines Kanals selbst sind unstrukturiertes HTML ohne semantische Zusammenhänge. Screen-Reader-Benutzer, Leute, die ihren Browser nur mit der Tastatur steuern wollen oder alle möglichen anderen Gruppen, die den Browser nicht voll sehenden Auges und mit einer Maus bedienen können oder wollen, sind hier außen vor. Packt man dazu noch fehlende Alternativtexte für so ziemlich alle Grafiken und ganz viele lustige Icon Fonts, die noch viel lustigere Ergebnisse mit der Sprachausgabe erzeugen, hat man das Chaos ziemlich gut umschrieben. Wusstet ihr, dass unten auf jeder Seite steht: „Made with Damenkleidung by Slack“? 😉

Der Mac- und Windows-Client

Bei den Clients für Mac und Windows sieht es nicht besser aus. Der Mac-Client ist kaum mehr als eine native Verpackung für dieselbe unzugängliche Webseite. Und Berichte zur Windows-Version, die ich nicht selbst getestet habe, legen den Verdacht nahe, dass auch hier die Webseite lediglich in eine Umverpackung für die Betriebssystemintegration eingebettet wird. Da ist genauso Hopfen und Malz verloren wie auf der Webseite selber.

Der iOS-Client

Dieser ist tatsächlich in vielen Dingen zugänglich. Es gibt keine unbeschrifteten Schalter, selbst die Einblend-Menüs für die Kanäle und sonstigen Funktionen werden so dargestellt, dass vom Hintergrund für VoiceOver nichts mehr zu sehen ist und man diese Menüs auch wieder ordentlich schließen kann. Daran scheitern im ersten Versuch erfahrungsgemäß viele iOS-Entwickler. Es gibt jedoch drei Probleme, die die Bedienung noch etwas hakelig machen.

Zum einen werden in den Einstellungen die tatsächlich gewählten Optionen für Browser, Twitter Links oder Push-Benachrichtigungen nicht gesprochen. Man weiß einfach nicht, welche der Optionen tatsächlich gewählt ist. Das Doppeltippen auf eine der Optionen wählt sie aber zumindest visuell und funktional aus, so dass man sich damit behelfen kann, es einmal so einzustellen wie man es möchte, selbst wenn diese Option schon gewählt gewesen sein sollte.

Das zweite Problem betrifft Anhänge von Nachrichten wie eingebettete Tweets, Links zu Artikeln usw. Diese sind mit VoiceOver bisher nicht zugänglich. Man kann zwar auf jede Nachricht doppeltippen und halten, bekommt aber entweder das Popup für die Nachricht selbst oder, je nach Zufall bzw. dem, was genau in der Mitte gerade ist, den für den Anhang angezeigt. Hier also richtig mit zu interagieren, ist sehr hakelig und bedarf manchmal des vorübergehenden Ausschaltens von VoiceOver, um dann blind in die hoffentlich richtige Ecke zu tippen.

Und das dritte Problem betrifft tatsächlich immer noch das Scrollen. Und nach einer halben schlaflosen Nacht ereilte mich nach viel Testen morgens um vier Uhr die Erkenntnis, was hier eigentlich schief lief. Hat man sich an ein Team angemeldet und landet im Ausgabebereich der Nachrichten, erzählt VoiceOver einem was davon, dass man auf Seite 1 von 34 sei, wenn man mit drei Fingern aufs Display tippt. Die Nachrichten selbst sind aber so sortiert, dass die neueste unten steht. Normalerweise würde man erwarten, dass bei einer solchen Sortierung die neueste ganz oben stünde.

Das Runterscrollen zu älteren Nachrichten klappt demzufolge auch nicht. Man muss bei aktiviertem VoiceOver mit drei Fingern nach oben streichen, also die Nachrichten von unten nachziehen, um ältere Nachrichten zu lesen. Und auch hier stellt es sich wieder so dar, dass ältere Nachrichten oben, neuere unten stehen. Das simple Nach-Rechts-Wischen von Nachricht zu Nachricht liest sie aber wieder so vor, als scrolle man kontinuierlich nach unten. Aber am Ende ist man wieder auf Seite 1 von 34 gelandet.

Und jetzt wird’s lustig: Ich testete dies Verhalten mit meiner Herzdame, welche sehend ist. Und sie sagte mir, dass die Nachrichten genau so dargestellt werden, wie man es erwarten würde. Die neuesten ganz unten, und sie müsse den Finger nach unten übers Display ziehen, um ältere Nachrichten zu sehen. Ich schaltete VoiceOver wieder zu, und als ich dann von Seite 1 von 34 mit drei Fingern nach oben wischte, scrollte der Bildschirm nach unten. In Slack, und nur hier, verhält sich bei eingeschaltetem VoiceOver die Scrollrichtung also genau entgegengesetzt zur Richtung der Fingerbewegung. VoiceOver bekommt also die Bildschirmseiten irgendwie umgekehrt sortiert vorgelegt. So einen Bug habe ich in fast sieben Jahren Nutzung von VoiceOver auf dem iPhone noch nie gesehen! Und es hat mich verdammt nochmal ganz schön verwirrt! :O)

Wenn man nun also als VoiceOver-Nutzer wieder in einen Channel zurückkehrt und die seit dem letzten Besuch angefallenen Nachrichten in der richtigen Reihenfolge lesen möchte, sollte man wie folgt vorgehen:

  1. Mit Hilfe von Erforschen des Bildschirms oben unterhalb der Überschrift ein Element finden, das so etwas sagt wie „23 unread messages“ und darauf doppelt tippen.
  2. Man wird nun mit VoiceOver direkt auf eine Überschrift plaziert, die „New messages“ heißt.
  3. Jetzt durch wiederholtes Wischen nach rechts mit einem Finger die Nachrichten in der richtigen Reihenfolge durchlesen.

So komme ich mit der iOS-App auf iPhone und iPad tatsächlich gut zurecht. Aber komisch ist es trotzdem, und ich hoffe, dass nach meiner Meldung bei Slack und deren Bestätigung, dass sie diesen und die anderen Fehler, die ich oben erwähnte, schon kennen, diese möglichst bald in einem Update behoben werden!

Die iOS-Version ist nach dem Registrieren für ein Slack-Team also tatsächlich ein gangbarer Weg für VoiceOver-Nutzer.

Der Android-Client

Der Slack-Client für Android ist ähnlich gut zugänglich wie der für iOS. Lediglich zwei unbeschriftete Controls gibt es: Einen oben im Einstellungen-Bildschirm und den Button zum Hinzufügen eines weiteren Teams in der Teamliste. Auch diese sind bereits an Slack gemeldet. Ansonsten ist der Client gut bedienbar, sogar ohne verwirrenden Scrolling-Fehler. 😉

Fazit

Das Erhalten einer Einladung und das Registrieren für ein Slack-Team klappen über die Desktop- und Mobilseite im Browser problemlos. Danach darf man als Screen-Reader-Nutzer aber von der Webanwendung nichts weiter erwarten. Hier muss viel Arbeit geleistet werden, um diesen Kahn flott zu kriegen für eine Zugänglichkeit für alle.

Als gangbare Wege bleiben die Clients für iOS und Android. Gekoppelt mit einer entsprechenden Bluetooth-Tastatur fürs komfortablere Tippen ist die App auf beiden Plattformen gut nutzbar. Natürlich mit den oben erwähnten Einschränkungen.

Wer noch mehr über Slack und die Philosophie des Unternehmens erfahren möchte, findet in zwei Interviews mit dem Gründer Stewart Butterfield bei T3n und dem Gründerszene-Magazin einige sehr lesenswerte Aussagen. Slack macht durchaus den Eindruck, nicht ein x-beliebiges neues Startup aus dem Silicon Valley zu sein, und es könnte die Art, wie Teams in Unternehmen und auch im Open-Source-Bereich miteinander kommunizieren, umkrempeln, weil es auf einfache Weise viel bessere Integrationsmöglichkeiten bietet als das althergebrachte IRC oder die gute alte E-Mail. Bei der immer größer werdenden Informationsflut ist es wichtig, diese zu bündeln und sich nicht in zu vielen Kanälen zu verzetteln, die man überwachen muss, und Slack kann hier eine gute Möglichkeit sein.

Ich werde diesen Artikel regelmäßig mit neuen Erkenntnissen und Entwicklungen aktualisieren.


Zwischenbilanz zum Thema „Google-frei werden“

$
0
0

Im September 2014 startete ich ein Projekt, mich von Google zu trennen und alternative Dienste zu nutzen. Es ist nun mal Zeit, eine Zwischenbilanz zu ziehen und zu gucken, wie konsequent ich diesen Vorsatz tatsächlich umsetzen konnte und wo es Hürden gab und gibt.

Die Suche

Während meine Euphorie über DuckDuckGo zunächst sehr groß war, zeigten sich im Alltag bei nicht ganz so gebräuchlichen Suchanfragen über die nächsten Monate sehr schnell Schwächen der noch jungen Suchmaschine. Gerade im deutschsprachigen Bereich fand ich mich sehr schnell auf Google-Suchseiten wieder, um die richtigen Ergebnisse zu finden. Diese waren oft so viel besser, dass ich gerade auf dem Handy irgendwann entnervt wieder auf Google zurückstellte. Das Experiment wird weiter geführt, auch mit weiteren alternativen Suchmaschinen wie Qwant und Yahoo!, und auch DuckDuckGo wird natürlich weiterhin geprüft, weil ich das Konzept eigentlich sehr lobens- und unterstützenswert finde. Es bleibt aber die Beobachtung, dass Google das Suchen vor allem auch wirklich relevanter Inhalte echt gut können. Ein Wechsel der Suchmaschine ist in diesem Fall tatsächlich mit erheblichen Qualitätseinbußen verknüpft, die im Alltag sehr schnell zu Hindernissen werden.

Mail, Kalender, Kontakte

Nach einigen Monaten der Nutzung von Fastmail entdeckte ich, dass, obwohl der Dienst in Australien ansässig ist, die Server, auf denen meine Daten lagerten, in New York City in den USA stehen. Und obwohl groß versichert wurde, dass die Server sicher seien usw., konnte die Frage nicht abschließend geklärt werden, welcher Gerichtsbarkeit und welchem Regierungszugriff die Server letztendlich tatsächlich unterstehen würden. Nennt mich einen Prinzipienreiter, aber das war mir einfach zu schwammig.

Ich schaute mich also nach einem neuen Anbieter um und landete schließlich beim Berliner Unternehmen mailbox.org. Dieses hat nicht nur den Firmensitz in Deutschland, sondern auch die Server, und untersteht somit deutschem Datenschutzrecht. Und bei aller sehr berechtigter Kritik an so katastrophalen Gesetzesvorhaben wie der Vorratsdatenspeicherung 2.0 haben wir immer noch eines der strengsten und Privatpersonen wohlgesonnendsten Datenschutzrechte der Welt.

Mailbox.org bietet eine auf dem Open-Source-Projekt Open-Xchange bzw. der OX App Suite basierende Komplettlösung mit E-Mail, Kalender, Kontakten, virtueller Festplatte und Dokumenten- und Tabellenbearbeitung an. Seit kurzem ist auch die PGP-Verschlüsselung integriert, was das Versenden und Empfangen verschlüsselter E-Mails über den Browser sehr komfortabel macht. Mehr hierzu aber in einem baldigen eigenen Artikel.

Sämtlicher Datenabgleich ist möglich: Kontakte und Kalender werden über die offenen Standards CardDAV bzw. CalDAV realisiert, es sind aber auch Fallbacks auf ActiveSync, also das Protokoll von Microsoft und Exchange-Servern, möglich. Dateien werden entweder über die eigenen Apps für Windows/Mac/iOS/Android oder direkt über den Standard webDAV verwaltet. Die Dokumente sind mit dem Microsoft OpenXML-Standard kompatibel, also DOCX, XLSX usw. und können somit von allen Programmen, die diese Formate lesen und schreiben können, bearbeitet, dann aber auch im Webbrowser weiterbearbeitet werden. Aber es können natürlich x-beliebige Dateien in der Cloud gespeichert werden.

Einziges, sich aber ständig verkleinerndes, Manko: Die Zugänglichkeit der Weboberfläche ist noch nicht vollständig gegeben. Vergleicht man diese Lösung mit den Google Apps wie Gmail, Docs und Sheets, hat Open-Xchange noch einige Dinge zu lernen. Ich kenne das Team aber, und dieses ist sehr engagiert und daran interessiert, dass sich die Zugänglichkeit ständig verbessert.

Da Open-Xchange aber so offen gestaltet ist, ist man eben nicht zwingend darauf angewiesen, die Weboberfläche zu nutzen. Sie bietet jedoch noch einige Zusatzfunktionen, die die Apps bisher vermissen lassen, wie das Teilen beliebiger Dateien mit anderen, sogar nicht bei mailbox.org angemeldeten/registrierten, Benutzern.

Ich habe mit Mailbox.org inzwischen fast meine kompletten Anwendungs-Szenarien abgedeckt, für die ich früher ein Dropbox-Konto benötigte. Lediglich 1Password braucht zwingend einen Dropbox-Account, wenn man seine Tresore nicht nur zwischen Apple-Geräten nutzen möchte, sondern auch Windows und Android zur Infrastruktur gehören. Selbst Banking4i & Freunde können mit dem WebDAV von Mailbox.org problemlos einen Datentresor synchron halten.

Mailbox.org ist nicht kostenlos und hat im Gegensatz zu Fastmail sogar ein (von mir ja damals kritisch betrachtetes) Prepaid-Modell, die Vorteile überwiegen hier aber ganz eindeutig diesen Nachteil.

Googles Stärken

Dennoch gibt es meinen Gmail-Account immer noch, weil Google selbst es einem natürlich schwer macht, sich ganz von ihm zu trennen. Auch so manche Funktionen wie das automatische Erstellen von Kalendereinträgen bei Erhalt von Buchungsbestätigungen für Hotels und Flüge und das synchron Halten von Kontakten, wenn man diese auch mit Google+ verknüpft hat und diese ihre Details aktualisieren, sind Funktionen, die einen manchmal sehnsüchtig überlegen lassen, ob man nicht doch… OK, iOS bietet diese Lernfunktion für den Kalender inzwischen auch, so dass man dies auch mit einem Mailbox.org-Konto realisieren kann, aber es ist immer ein manueller Prozess, den man noch anstoßen muss, wenn man entsprechende Mails z. B. auf einem iPad öffnet. Diese vollständige Integration, wie Google sie bietet, ohne dass man sich weiter um Dinge kümmern muss, sind schon sehr verführerisch und benutzerfreundlich.

Auch gibt es nach meinen Tests zu urteilen kaum ein besseres Tool als Docs & Co. zum gemeinsamen Bearbeiten von Dokumenten. Vor allem wenn man auf Screen Reader angewiesen ist, sind alle anderen Systeme, obwohl sie es zumindest teilweise auch können, mit einigen mehr Klimmzügen verbunden. Und auch hier gibt es natürlich Präferenzen, wenn man sich z. B. die Integration von MS Office in OneDrive oder Dropbox anguckt. Einige der Funktionen habe zumindest ich mit Mailbox.org nicht so nahtlos zum Laufen bekommen.

Fazit

Ein Leben unabhängiger vom großen G ist nach wie vor ein erstrebenswertes Ziel für mich. Es zeigt sich aber auch immer wieder, dass man erst merkt, was man an Gmail & Co. hat, wenn man es bewusst vermeidet, weglässt oder sich andere Haken und Ösen einstellen, sei es nun speziell bei der Zugänglichkeit oder allgemein den Funktionen und Integration. Google können Suchen richtig gut, und das spielen sie eben auch in anderen Bereichen aus. Selbst ein mehrere GB großes Postfach ist irre schnell durchsucht, das nahtlose Hinzufügen von Terminen aus Buchungsbestätigungen heraus ist ein Produktivitätsgewinn, den man erst zu schätzen weiß, wenn man ihn einmal erlebt hat.

Man darf gespannt sein, wie das noch weiter geht! Ich bleibe jedenfalls am Ball und werde in unregelmäßigen Abständen weiter berichten.

Erfahrungsbericht: Microsoft Surface Book und Surface Pro 4 mit Windows 10

$
0
0

Ich werde immer wieder von blinden Lesern gefragt, wie denn Windows 10 so sei, ob sich der Umstieg lohnt, ob danach alles kaputt ist o. ä. Auch kommen immer wieder mal Fragen nach geeigneter Hardware. Ich habe daher vor etwa einer Woche die Gelegenheit beim Schopfe ergriffen und sowohl das Microsoft Surface Book als auch das Surface Pro 4 einem Test unter Alltagsbedingungen unterzogen. Hier ist mein Erfahrungsbericht.

Im November 2015 stellte Microsoft sowohl das Surface Pro 4 Tablet als auch das erste eigene Notebook der Firma, das Surface Book, vor. Während das Surface Pro 4 recht schnell in Deutschland verfügbar war, mussten Kunden bis zum 18.02.2016 warten, bis das Surface Book auch in Deutschland lieferbar war.

Durch überwiegend positive Rezensionen der amerikanischen IT-Presse neugierig geworden, und weil die allgemeinen Gründe für die bessere Produktivität unter Windows auch mit OS X El Capitan immer noch Bestand haben, fragte ich bei Microsoft Deutschland an, ob ich sowohl ein Surface Pro 4 als auch ein Surface Book zur Ansicht bekommen könnte, um hier im Blog darüber zu schreiben. Dankenswerterweise konnte ein Surface Pro 4 sofort gestellt werden, während ein Surface Book nicht verfügbar war.

Es fügte sich jedoch, dass mein Arbeitgeber mir eines besorgen konnte, so dass ich in der letzten Woche beide Geräte parallel getestet habe.

Ich werde hier nicht die allgemeinen Testergebnisse z. B. der PC-Welt oder der c’t wiederholen, sondern speziell die Zugänglichkeit für Blinde und einige Besonderheiten beleuchten, die mir im Test aufgefallen sind.

Haptik

Beide Geräte sind sehr gut verarbeitet. Das Surface Pro 4 ist etwas kleiner (12,3 Zoll) als das Surface Book (13,5 Zoll Bildschirmdiagonale). Außerdem ist das Surface Pro 4 ein einzelnes Tablet, das durch eine zusätzlich zu erwerbende Tastatur (Type Cover) erweiterbar ist, während das Tablet im Surface Book Bestandteil eines vollwertigen Notebooks ist. Die Tablets liegen gut in der Hand, sind aber nicht ganz leicht (800 g fürs Surface Pro 4 vs. 726 g fürs Surface Book ohne Tastatur). Die Verarbeitung ist solide: Beim festen Anfassen knarzt nichts oder fühlt sich an irgend einer Stelle „wabbelig“ an.

Alleinstellungsmerkmal des Surface Pro 4 ist der Standfuß, der sich an der unteren Gehäuserückseite ausklappen lässt, um das Tablet mit angestecktem Type Cover auf eine plane Fläche wie einen Tisch zu stellen. Das Surface Book wird hingegen direkt auf den Tastatur-Unterbau gesteckt und ist somit der Notebook-Bildschirm.

Die Verarbeitung beider Steckmechanismen ist solide, viele magnetische Einrastfunktionen helfen, die Geräte richtig zusammenzustecken, ohne dass es Zweifel über die Ausrichtung gibt. Das gilt auch für den Stecker des Netzteils. Dieser lange, schmale Stecker wird ebenfalls magnetisch angezogen, sobald er in der richtigen Position ist.

Etwas gewöhnungsbedürftig ist, dass beide Geräte den Kopfhöreranschluss an jeweils einer Ecke der oberen Gehäuseseite haben. Beim Surface Pro 4 ist es die linke, beim Surface Book die rechte obere Ecke. Dadurch hängen Kabel z. B. eines Headsets gern mal an der Seite herunter und können auch in den Weg geraten, wenn man das Surface z. B. per Touchscreen bedient.

Die Tastatur

Gegenüber den Vorgängerversionen wurde das Type Cover für das Surface Pro 4 grundlegend überarbeitet. Waren die Vorgänger lediglich als Versuch einer Tastatur aufzufassen, hat das Type Cover für das Surface Pro 4 diesen Namen auch tatsächlich verdient. Die Tasten sind klar voneinander abgesetzt und haben einen guten Druckpunkt. Man kann sie zweistufig einstellen: Einmal ganz flach und einmal mit einem ca. 1 cm hohen Falz, der sich ans unterste Ende des Tablets heranklappen lässt. Die Tastatur hat so einen leichten Neigungswinkel (Anstieg nach hinten zum Surface Pro hin), der fürs Tippen für meinen Geschmack angenehmer ist.

Einen Nachteil hat diese Konstruktion allerdings: Obwohl die Tastatur gut verarbeitet ist, sorgt das sehr dünne Gehäuse dafür, dass sie doch beim Tippen immer etwas mitschwingt oder nachgibt. Der Nachteil: Durch diese Freischwingung scheppert das Tippen unglaublich laut. Auch ist die Konstruktion empfindlich gegen kleinste Unregelmäßigkeiten in der Tischplatte: Ist sie nicht ganz eben, scheppert zusätzlich der Standfuß des Surface Pro 4 etwas mit. Und wie auch schon im Test der PC-Welt erwähnt, sorgt dieser ausklappbare Standfuß zwar für einen stufenlos verstellbaren Neigungswinkel von ganz steil bis ganz flach, trägt aber nach hinten unheimlich auf, so dass das Surface Pro sehr viel Standfläche benötigt. Das Tippen auf dem Schoß ist somit schon schwierig, wenn nicht sogar ganz unmöglich.

Von diesen Problemen ist die Tastatur des Surface Book nicht betroffen. Sie ist Bestandteil des Notebook-Unterbaus und somit solide ins Gehäuse eingearbeitet. Sie hat ebenfalls einen sehr guten Druckpunkt, und die Tasten haben eine angenehme Festigkeit. Auch das Gehäuse ist leicht nach hinten ansteigend, so dass ein angenehmes Tippgefühl entsteht. Im Gegensatz zum Surface Pro 4 faltet sich das Surface Book nach hinten auf, wenn man den Tablet-Teil hoch klappt. Die Standfläche vergrößert sich somit, je weiter der Winkel geöffnet wird, aber ohne die Notwendigkeit eines Standfußes, der nach hinten gegen Umfallen absichern müsste. Das ganze steht somit auch auf dem Schoß sehr stabil. Die Geräuschentwicklung beim Tippen ist deutlich geringer als beim Surface Type Cover.

Vom Layout her sind die Tastaturen fast identisch. Die Tastatur des Surface Book hat etwas mehr Raum zur Verfügung, so dass ein leicht größerer Abstand zwischen den Tasten besteht. Auch gibt es eine Funktionstaste mehr, nämlich die zweite Taste rechts oben dient zum Entriegeln des Tablet-Teils. Ansonsten haben beide Tastaturen rechts neben der Leertaste neben der Alt-GR-Taste eine Kontextmenü-Taste, etwas, das man heute nur noch selten auf Notebook-Tastaturen findet. Meist wird der Platz durch entweder eine zweite Windows- oder eine STRG-Taste vergeudet. Dieser Umstand macht bei den Microsoft-Tastaturen das Arbeiten mit Kontextmenüs sehr angenehm, da man nicht beide Hände braucht, um das Kontextmenü mit Umschalt+F10 zu öffnen. Die Cursortasten für nach oben und nach unten haben hingegen nur die halbe Höhe, so dass das Cursorkreuz sich nicht wie ein echtes Cursorkreuz anfühlt, sondern wie drei Tasten nebeneinander, von denen die mittlere in der Mitte horizontal zweigeteilt ist.

Windows 10

Beide Geräte kommen mit einem vollwertigen Windows 10 Pro. Die abgespeckte, auf der ARM-Prozessorarchitektur basierende, RT-Variante gibt es für Tablets nicht mehr. Das heißt auch, dass beide Surface-Modelle nicht nur moderne Windows-10-Anwendungen, sondern auch herkömmliche Desktop-Anwendungen wie das vollwertige Office 2016 ausführen können.

Die Ersteinrichtung mit Hilfe der eingebauten Sprachausgabe (im englischen Narrator) klappte fast problemlos. Auf dem Surface Book sprachen zwischendurch zwei Dialogfelder nicht, nachdem die Sprache auf deutsch umgestellt woerden war. Dieser Umstand ist leider natürlich sehr störend, weil man so Gefahr läuft, im wahrsten Sinne des Wortes im Dunkeln zu sitzen und ohne sehende Hilfe nicht weiter zu kommen. Ab dem dritten Dialogfeld fing die Sprachausgabe dann auf einmal ohne weiteres Zutun wieder an zu sprechen. Äußerst verwunderlich.

Nach der Ersteinrichtung kann man mit Narrator die Grundfunktionalität des Betriebssystems bedienen. Selbst Webseiten kann man einigermaßen gut lesen, wenn man den mitgelieferten Microsoft-Edge-Browser benutzt. Zum Herunterladen eines vollwertigen Screen Readers wie NVDA reicht es allemal.

Screen Reader

Apropos Screen Reader: NVDA läuft auf den Surfaces wie eine Eins. Es ist schnell, spricht alles, der Touch Screen funktioniert einwandfrei. Seit Version 2015.4 ist auch die Grundfunktionalität mit Microsoft Edge hergestellt, allerdings empfehlen sowohl die Entwickler von NVDA als auch ich dringend den Firefox zum Browsen unter Windows 10. Edge ist einfach noch nicht soweit, und viele etwas komplexere Seiten werden es noch aus dem Tritt bringen. Auch ist die Performance aus technischen Gründen mit Firefox deutlich besser.

Selbiges gilt auch für JAWS 17. Auch dieses läuft anständig auf den Surfaces. Allerdings muss zwingend JAWS 17 eingesetzt werden, frühere Versionen sind mit Windows 10 offiziell nicht kompatibel. Es kann einiges funktionieren, muss es aber nicht, und wenn es funktioniert, ist es Zufall. Wer also eine ältere Version hat und Windows 10 einsetzen will, ohne auf NVDA umzusteigen, muss ein Upgrade erwerben.

Window-Eyes, SuperNova und Cobra habe ich nicht getestet, aber für Window-Eyes gilt dasselbe wie für JAWS: Nur die 9.2 oder neuer nutzen, die 8er Generation dürfte mit sowohl Windows 10 und vor allem MS Edge reichlich Probleme haben.

Windows 10 bringt auch den Internet Explorer 11 mit. Allerdings ist dieser relativ versteckt und wird nicht mehr mit neuen Funktionen versorgt. Alle Entwicklung neuer Webtechnologien findet im Nachfolger Edge statt, aber dieser ist, gerade was Screen Reader angeht, wie gesagt, noch nicht für den alltäglichen Einsatz bereit.

Wer NVDA nutzt, sollte sich unbedingt auch das Add-On Windows 10 App Essentials installieren. Dieses behebt einige Probleme im Zusammenspiel mit Windows 10 Systemkomponenten und einigen mitgelieferten Apps, deren Behebung noch nicht in den Kern von NVDA eingeflossen sind.

Alltagsaufgaben

Windows 10 ist im Gegensatz zu Windows 8.1 und vor allem Windows 8 wieder viel vorhersagbarer in der Arbeit geworden. Man merkt kaum noch, ob man sich gerade in einer modernen oder klassischen Desktop-Anwendung befindet. Gerade NVDA, das z. B. überall den Touch Screen unterstützt, ermöglicht das Arbeiten mit Tastatur, Maus und eben dem Touch Screen in allen zugänglichen Anwendungen.

Auch hat Microsoft sich wieder von völlig unterschiedlichen Bedienkonzepten für moderne Anwendungen vs. klassischer Desktop-Anwendungen verabschiedet. Menüs lassen sich konsistenter bedienen als unter Windows 8.1, und auch andere Kinderkrankheiten gehören endlich der Vergangenheit an. Auch die regelmäßigen App-Updates für vom System mitgelieferte Anwendungen sorgen für eine kontinuierliche Verbesserung der Zugänglichkeit. So sind nach einem Update im Januar 2016 Mail und Adressbuch deutlich besser zugänglich geworden. Man kann damit jetzt tatsächlich ganz gut arbeiten, wenn man nicht Outlook oder Thunderbird nutzen möchte.

Auch Cortana, der Sprachassistent, der in Windows 10 Einzug gehalten hat, ist durchaus nützlich, z. B. zum Anlegen von Terminen, Finden von Dingen o. ä. Eine enge Verzahnung mit den Systemkomponenten und Cloud-Diensten ist allerdings in den meisten Fällen Voraussetzung, dass diese Assistenzfunktionen auch garantiert funktionieren.

Auch neue Funktionen wie die virtuellen Desktops, mit deren Hilfe man sich individualisierte Arbeitsumgebungen für bestimmte Aufgaben erzeugen kann, sind zugänglich. Dadurch, dass Microsoft eine immer besser werdende Bibliothek von Benutzerschnittstellen-Elementen hat und die Zugänglichkeit durch immer bessere UI Automation verbessert, fällt es ihnen auch leichter, solche Funktionen gleich von Anbeginn zugänglich zu machen.

Auf alle Fälle empfehle ich, um wirklich alles aus Windows herausholen zu können, das Studium dieser Liste von Tastenkombinationen. In Windows 10 ist viel dazu gekommen, so dass sich ein Blick auch für diejenigen sehr lohnt, die Windows schon länger kennen.

Windows Hello

Windows Hello ist eine neue Funktion zur Anmeldung per Gesichtserkennung. Diese funktioniert nicht auf jedem Windows-Rechner, aber die Surface-Familie bringt Unterstützung durch die Front-Kamera mit. Anstatt ein Passwort oder eine PIN einzugeben, wird die Echtheit des Benutzers durch biometrische Erkennung der Gesichtsmerkmale durchgeführt. Vergleichbar ist dies entfernt mit dem Fingerabdruck-Sensor im iPhone seit dem 5s und einigen neuen Android-Geräten.

Die Einrichtung ist kinderleicht und auch für Blinde problemlos durchführbar. Man muss lediglich vor dem Surface in normaler Arbeitshaltung sitzen bleiben, wenn die Erkennung läuft. Einmal eingerichtet, kann man das Surface entsperren, ohne ein Kennwort oder eine PIN eingeben zu müssen. Das ist vor allem auch dann praktisch, wenn man irgendwo unterwegs ist und nicht kontrollieren kann, ob und wer einem gerade über die Schulter schaut. Die Gesichtserkennung lässt sich auch nicht austricksen: Andere Personen werden nicht eingelassen, und auch mit einem Foto von sich selbst kann man das System nicht überlisten, weil neben der normalen Kameraoptik auch Infrarotsensoren zum Einsatz kommen, fast wie bei einer Wärmebildkamera.

Die Daten werden nur auf dem Gerät gespeichert. Ich musste, obwohl ich mich auf beiden Geräten mit meinem Microsoft-Konto anmeldete, die Hello-Funktion auf beiden Geräten separat aktivieren und die Gesichtserkennung durchführen.

Regelmäßige Updates

Mit Windows 10 hat Microsoft auch einen Paradigmenwechsel eingeläutet, was die Verteilung und Aktualisierung des Systems angeht. Der Ansatz „Software As A Service“ (Software als Dienstleistung) heißt, dass es nicht nur alle paar Jahre ein neues Betriebssystem mit neuer Versionsnummer gibt, sondern dass in kleineren Abständen größere Systemupdates mit neuen Funktionen und mehr als nur Sicherheits-Bugfixes verteilt werden. So gab es schon im November 2015 ein größeres Update, das u. a. auch viele Zugänglichkeitsprobleme behob.

Auch kann sich heute jede Person, die das möchte, zum Windows 10 Insider Program anmelden, um früh Entwicklerversionen zu testen. Hierfür gibt es dann mehrere Stufen, in denen man Updates erhält, wobei bei dem sogenannten „Fast Ring“ im Moment fast jede Woche eine neue Version kommt, die dann natürlich auch Bugs enthalten kann. Dieser Schritt will wohl überlegt sein, und man sollte auch bereit sein, Microsoft Feedback zukommen zu lassen. Aber allein die Tatsache, dass das geht, ist schon ein ziemliches Indiz dafür, wie sehr bei Microsoft in den letzten Jahren ein Kulturwechsel hin zu mehr Offenheit stattgefunden hat.

Die Surfaces im Alltag

Neben der bereits erwähnten guten Verarbeitung machen die Surfaces auch im täglichen Einsatz eine gute Figur. Sie laufen zuverlässig, in den meisten Fällen geräuschlos und kommen auch mit regelmäßigem Einschlafen und Aufwecken sehr gut zurecht. Da habe ich unter Windows schon echte Horrorszenarien erlebt, die hier sämtlich nicht auftreten. Man merkt deutlich, wie gut die Hardware auf die Software abgestimmt ist. Auch sorgen regelmäßige Updates der Treiber, Firmware o. ä. dafür, dass Kinderkrankheiten ausgebügelt werden, wie z. B. das Problem, das bis Mitte Februar bestand, wo die Surfaces im Standby zuviel Strom verbraucht haben.

Ich ertappe mich auch immer mehr dabei, wie selbstverständlich den Touch Screen zu nutzen. Und im Gegensatz zum iPad mit Tastatur merkt man hier eben auch, dass man ein vollwertiges Desktop-Betriebssystem fährt. Trotz der verbesserten Produktivität in iOS 9 haben die meisten Anwendungen längst keine so gute Unterstützung von Tastenkombinationen wie die meisten Anwendungen unter Windows. Auch die Tatsache, dass man unter iOS für jedes Cloud-Dateisystem immer eine eigene App, die eine Erweiterung zum Öffnen von Dateien installiert, braucht und so immer erst nachdenken muss, was man von wo holen muss, hat sich bei mir in der Praxis immer wieder als hakelig erwiesen. Unter Windows braucht man diese Systemdienste zwar auch, aber diese integrieren sich dann ins normale Dateisystem, und man wechselt lediglich in andere Ordner.

Was fehlt?

Ganz klar ein LTE-Modul! Ich bin öfters unterwegs und nutze dann das iPad mit Mobilfunkoption eigenständig, um mit Tastatur und vernünftigem Bildschirm zu arbeiten, ohne dabei gleichzeitig den Akku des iPhones mit leer zu saugen. Jetzt ist man mit sowohl dem Surface Pro 4 als auch dem Surface Book immer auf Tethering mit dem Smartphone angewiesen, d. h., es sind immer zwei Geräte, die schneller Akku verbrauchen, anstatt nur eines. Das ganze relativiert sich nur dadurch etwas, dass das Surface-Netzteil einen USB-Anschluss hat, über den man das Smartphone z. B. im Zug über dieselbe Steckdose mitStrom versorgen kann; aber es ist trotzdem etwas, das zumindest mir störend auffällt und wo ich mir für eine Weiterentwicklung dringend wünschen würde, dass ein Mobilfunkmodul eingebaut und die Surface-Familie so noch netzunabhängiger wird.

Surface Pro oder Book?

Das ist, wie so oft, Geschmackssache. Das Surface Pro 4 gibt es in sechs, das Surface Book in vier Varianten. Man kann wählen zwischen 128, 256 und 512 GB Flash-Speicher, 4, 8 oder 16 GB Arbeitsspeicher und Prozessoren von Intel Core-i5 oder -i7 der neuesten Generation (Skylake). Das Surface Pro 4 kommt zusätzlich in einer Variante mit dem abgespeckten Intel-Core-m-Prozessor, welcher mit passiver Lüftung auskommt. Dieses Surface ist also immer lautlos, aber eben auch mit deutlich weniger Rechenpower ausgestattet.

In der Praxis habe ich zwischen dem Core-i5 (Surface Pro 4) und dem Core-i7 (Surface Book) in meinen Testgeräten keine großen Unterschiede feststellen können. Je nach Anwendung und Benchmark ist der verwendete Core-i7 zwischen 8 und 15 Prozent schneller als der Core-i5. Was vielleicht für Sehbehinderte interessant sein dürfte: Die dedizierte Grafik im Surface Book (außer der kleinsten Variante) sorgt laut Tests für deutlich bessere Grafik-Performance. Für ein ruckelfreies Erlebnis der bevorzugten Vergrößerungs-Software könnte dies entscheidend sein. Da ich selbst aber blind bin und das daher nicht testen kann, kann ich dies nur vermuten. Ausprobieren müsst ihr das dann ggf. selbst. 😉

Anwendungen wie Office, Mail, Webbrowsen und sogar einige Entwicklungsaufgaben erledigen beide Geräte zuverlässig und schnell.

Was mich persönlich jedoch definitiv mehr zum Surface Book tendieren lassen würde, wäre die bessere Tastatur. Das Type Cover ist, wie gesagt, deutlich besser als früher, aber das Gescheppere beim Tippen in etwas geneigter Position nervt doch sehr. Die solide eingearbeitete Tastatur im Surface Book hingegen ist von der Qualität her durchaus mit Tastaturen z. B. in MacBooks vergleichbar.

Aber auch beim Thema Tastaturen sind Geschmäcker ja verschieden. Daher kann ich nur empfehlen: Probiert sie aus und bildet euch euer eigenes Urteil. Wenn ihr euch für ein Gerät aus der Surface-Familie entscheiden solltet, könnt ihr auf jeden Fall nichts falsch machen, es sind beide gute, solide Geräte, auf denen Screen Reader, die Windows 10 unterstützen, zuverlässig ihren Dienst tun.

Gibt es Wermutstropfen?

Klar, die gibt es doch immer! 😉 So ist auch in Windows 10 eine Anbindung von integrierten Mail-, Kalender- und Kontaktelösungen wirklich nur dann gut, wenn sie einen Exchange-Server als Gegenstück auf dem Server hat, gerade wenn diese Daten auch mit Mobilgeräten synchronisiert werden sollen. Offene Standards wie CALDAV und CARDDAV werden vom Betriebssystem selbst und auch von Outlook nicht unterstützt. Thunderbird hat zwar inzwischen die Lightning-Kalendererweiterung als festen Bestandteil integriert, kann aber immer noch kein CARDDAV ohne Klimmzüge mit mehr oder weniger gut funktionierenden Erweiterungen von Drittherstellern. Außerdem weiß man ja leider nicht, wie lange und unter welchem Dach dieses zukünftig weiterentwickelt wird, weil Mozilla sich ja komplett von dem Projekt trennen will. Leider!

Auch wer z. B. als Smartphone ein iPhone benutzt, kann Dienste wie iCloud nur eingeschränkt nutzen. iMessage geht unter Windows gar nicht, iCloud-Kalender und -Kontakte gehen entweder über die Windows-10-Apps Mail, Kontakte und Kalender, oder über eine von Apple zu pflegende Outlook-Erweiterung. Pages- oder Numbers-Dokumente können unter Windows nur im Browser bearbeitet werden, und iWork für iCloud im Browser ist immer noch nicht mit Screen Readern zugänglich.

Wenigstens wurde für diejenigen, die Google-Konten wie Gmail nutzen, die Integration wiederhergestellt, wie hier zu lesen ist. Für Hangouts usw. muss man dann wohl den Browser nehmen, für die Kalender-, Mail- und Kontakte-Funktion die Windows-Apps oder ein buntes Mischmasch.

Man fährt also bei allem wirklich am besten, wenn man sich der Microsoft-Cloud verschreibt. Gooogle- und iCloud-Konten gehen zwar irgendwie, aber nur mit Einschränkungen.

Fazit

Windows 10 ist nach anfänglichen Kinderkrankheiten definitiv ein solides System geworden. Die Abstimmung zwischen der Hard- und software bei der Surface-Familie ist schon fast Apple-like zu nennen. Es gibt keine Software, die nicht zwingend zum System gehört, keine Werbeinstallationen irgendwelcher Virenscanner oder sonstiger Software, wie sie quasi sonst bei allen gängigen Notebook-Marken vorkommen. Alle Treiber funktionieren auf Anhieb, und auch beim Zurücksetzen des Gerätes und einer Neuinstallation dürfte es hier keine Probleme geben. Auf vielen anderen Notebooks hat man ja die Sprachausgabe u. a. deshalb bei der Ersteinrichtung nicht zur Verfügung, weil die Soundkartentreiber noch nicht vorhanden sind.

Auch für Umsteiger ist das Upgrade durchaus empfehlenswert: Alle Rechner, die Windows 7 oder 8.x ausführen können, laufen auch mit Windows 10. Eventuelle Probleme werden in der Regel vom Upgrade-Assistenten erkannt und Empfehlungen für Lösungen gegeben. Aber eben noch einmal der Hinweis: Kein Upgrade auf Windows 10 ohne aktuellste Version des bevorzugten Screen Readers, wenn dieser Windows 10 überhaupt unterstützt. Die drei großen NVDA, JAWS und Window-Eyes tun dies jedenfalls. Noch ist das Upgrade kostenlos, aber es gibt ja immer wieder Berichte, dass das nicht auf ewig so bleibt.

Ich selbst weiß die Vorzüge, die mir eine Windows-Umgebung mit funktionierender Touchscreen-Unterstützung bietet, schon jetzt sehr zu schätzen.

Updates

  • 05.03.2016: Dank eines Hinweises von Emanuel, dass iCloud mit Windows 10 jetzt auch geht, dies getestet und nachgetragen, ebenso wie einen Link zu einer Anleitung für Gmail-Nutzer. Vielen Dank für den Hinweis!

 

Bilder mit Bildbeschreibungen auf Twitter posten – So geht’s

$
0
0

Seit dem 29.03.2016 kann man auf Bildern, die man auf Twitter veröffentlicht, eine Bildbeschreibung hinzufügen. Dies hilft Menschen, die die Bilder nicht sehen oder interpretieren können, also z. B. Blinden und Sehbehinderten, aber auch Menschen mit bestimmten kognitiven Schwierigkeiten. Und so geht’s!

Selbst Bilder mit Beschreibungen versehen

Das Versehen von Bildern mit Bildbeschreibungen funktioniert zunächst nur in den hauseigenen mobilen Clients für iOS und Android. Selbst wenn man normalerweise einen anderen Twitter-Client nutzt, muss man hierfür zur Zeit die offizielle Twitter-App installieren und konfigurieren. Ein Versehen von Bildern mit Beschreibungen von der Weboberfläche aus soll kommen, ist aber bisher nicht implementiert. Auch kann man Bilder nur beim Posten mit Beschreibungen versehen, ein nachträgliches Hinzufügen ist nicht möglich.

Nach der Installation geht man einmal in die Einstellungen (Reiter Account) und dort in den Unterpunkt „Barrierefreiheit“. Hier gibt es eine neue Funktion „Bildbeschreibungen verwenden“. Diese schaltet man ein. Abschließend auf Fertig tippen.

Danach muss man die Twitter-App einmal aus dem App-Switcher des jeweiligen Betriebssystems wischen, also zwangsbeenden, und dann neu starten. Erst dann steht die Funktion zur Verfügung.

Beim Verfassen eines Tweets nun ein oder mehrere Bilder hinzufügen. Für jedes Bild kann man eine Beschreibung anhängen. Für Sehende gibt es dafür einen Button, VoiceOver-Nutzer unter iOS können auf das Bild tippen und dann mit den Rotor-Aktionen durch nach oben und unten Wischen den Punkt „Beschreibung hinzufügen“ auswählen und Doppeltippen.

Es öffnet sich ein Fenster, in das man eine bis zu 420 Zeichen lange Beschreibung eingeben kann. Hier darf man also auch gern ausführlich werden bzw. kann das Transkript eines Bildes mit Text einfügen. Abschließend speichern.

Der folgende Tweet ist ein Beispiel für einen zugänglichen Tweet mit Bildbeschreibung. Einfach den Link mit der Datums- und Zeitangabe aufrufen (z. B. in einem neuen Tab) und die Beschreibung des Bildes mit dem Screen Reader vorlesen lassen.

VoiceOver liest diese neue Beschreibung beim erneuten Antippen des Bildes jetzt auch gleich vor. Nun noch einen Tweet-Text hinzufügen, der nun natürlich die Beschreibung des Bildes nicht mehr enthalten braucht, abschicken, fertig.

Bildbeschreibungen lesen

Das Lesen von Bildbeschreibungen funktioniert entweder in den Twitter-Apps für iOS und Android oder im Web. Wie oben beim Versenden beschrieben muss man die Bildbeschreibungen im Punkt Einstellungen/Barrierefreiheit aktivieren und die App einmal per App-Switcher beenden und neu starten.

Enthält ein Tweet nun ein Bild mit Beschreibung, wird diese sowohl in der Timeline als auch beim Aufrufen des Tweets und Antippen des Bildes von VoiceOver gesprochen. Eine visuelle Darstellung ist leider noch nicht möglich, wurde aber von der Community schon vehement angemahnt.

Benutzt man einen Client eines anderen Herstellers, so kann man den Tweet einfach auf Twitter öffnen. In Chicken Nugget z. B. ruft man das Kontextmenü auf und wählt „Tweet auf Twitter anzeigen“. In Twitterrific doppeltippt man den Tweet, wählt Share und dann „Open In Safari“. Der Tweet öffnet sich dann entweder in Safari oder in der offiziellen Twitter-App, wenn diese installiert ist (automatische Weiterleitung unter iOS). Der Tweet ist dann ganz normal lesbar, und dort, wo das Bild oder die Bilder erscheinen, wird automatisch der Alternativtext gesprochen, wie bei anderen ordentlich beschrifteten Bildern im Web auch.

Was ist mit Clients von Drittherstellern?

Die Clients brauchen ein Update, um diese Funktionen nutzen zu können. Die Programmierschnittstelle dafür existiert bereits. Es steht also zu hoffen, dass die Clients sowohl für die Erstellung als auch für die Auslese schnell nachziehen und Updates veröffentlichen, um die Funktion nachzureichen.

Bei mir erscheint die Option im Punkt Barrierefreiheit nicht

Unter iOS kann es vorkommen, dass die Funktion für die Bildbeschreibungen nach dem Update auf die Version 6.50 nicht gleich auftaucht. Es hilft, die App einmal per App-Switcher (Doppel-Klick auf den Home-Button) zu beenden und neu zu starten.

Genauso verhält es sich nach Aktivieren der Einstellung, wie oben schon beschrieben. Hier muss man anscheinend die App einmal zwangsbeenden und neu starten, um die Beschreibungen dann tatsächlich hinzufügen zu können bzw. sie vorgelesen zu bekommen.

Fazit

Meine große Hoffnung ist, dass möglichst viele Sehende die Funktion zur Beschreibung eines Bildes verwenden und sinnvolle Beschreibungen hinzufügen, um noch mehr Leute an dem Spaß teilhaben zu lassen, Fotos zu teilen bzw. Dinge durch ein Foto mitzuteilen. Ihr werdet euren blinden Followern, aber nicht nur denen, damit riesig helfen!

Auch hoffe ich, dass möglichst schnell möglichst viele Cliententwickler nachziehen und die Funktionen einbauen, damit man nicht auf die hauseigene Twitter-App festgenagelt ist. Besonders ruhen meine Hoffnungen da auch auf der Instagram-App, die beim Tweeten eine Beschreibung mitsenden könnte, die dann auch ihrer eigenen Plattform helfen könnte. Aber natürlich sollen auch Tweetbot, Twitterrific und wie sie alle heißen möglichst schleunigst nachziehen!

Ich danke schon jetzt jeder und jedem, die bzw. der geposteten Bildern in Zukunft Beschreibungen mitgibt!

Der Beitrag Bilder mit Bildbeschreibungen auf Twitter posten – So geht’s erschien zuerst auf Marco Zehe EDV-Beratung.

Messenger mit Verschlüsselung: WhatsApp, Threema und Signal

$
0
0

Am 05.04.2016 gab WhatsApp bekannt, dass Nachrichten, die über den populären Messenger verschickt werden, ab sofort durch Verschlüsselung gegen Mitlesen und Abhören gesichert sind. Über eine milliarde Nutzer chatten jetzt, ohne dass Behörden und Facebook mitlesen können. Andere Messenger machen dies schon länger und vielleicht sogar noch besser. Ich habe mir mal die drei populärsten angeschaut und ziehe ein paar Vergleiche.

Was bedeutet Ende-Zu-Ende-Verschlüsselung?

Ende-Zu-Ende-Verschlüsselung bedeutet, dass Nachrichten, die zwischen zwei oder mehr Empfängern hin und her geschickt werden, auf dem Handy des Absenders verschlüsselt werden, also nicht mehr im Klartext vorliegen, und erst auf dem oder den Empfangsgeräten des Empfängers oder der Gruppe mit einem passenden Schlüssel wieder entschlüsselt, also in Klartext umgewandelt, werden. Dem gegenüber steht die sogenannte Transportverschlüsselung, bei der die Daten an sich unverschlüsselt bleiben und lediglich der Transportweg, also der Weg über einen oder mehrere Server, verschlüsselt wird. Die Daten können bei dieser Transportverschlüsselung auf dem Server entschlüsselt und von den Betreibern gelesen werden. Die eigentlichen Vorgänge sind etwas komplexer als hier dargestellt, aber unterm Strich kommt raus: Nachrichten, die vom Sender bis zum Empfänger verschlüsselt sind, sind zu keiner Zeit von dritter Seite lesbar. Dies bedeutet eine erheblich verbesserte Privatsphäre, denn man kann sich ziemlich sicher sein, dass Nachrichten, die man nach heute gängigen Methoden verschlüsselt versendet, erst in Jahrzehnten, wenn überhaupt, von dritter Seite entschlüsselt werden können. Die Anzahl möglicher Zeichenkombinationen für die Schlüssel ist einfach zu groß, um das mit einem vertretbaren Aufwand hinzubekommen. Hinzu kommt, dass es bei den heutigen Methoden üblich ist, eine Komponente einzubauen, die sich „Forward Secrecy“, also „vorausschauende Geheimhaltung“, nennt. Sollte es also doch mal gelingen, eine abgefangene Nachricht zu entschlüsseln, ist damit noch lange nicht der gesamte Chatverlauf entschlüsselt.

Das Signifikante an der Bekanntgabe von WhatsApp ist, dass auf einen Schlag über eine Milliarde Nutzer abhörsicher Nachrichten austauschen können. Voraussetzung ist lediglich die Installation der aktuellsten Version des WhatsApp-Clients für die diversen Plattformen. WhatsApp und somit die Mutter Facebook sperren sich hier bewusst von den Nutzerinhalten aus. Lediglich die Metadaten, also wer wann wie oft und wie heftig mit wem kommuniziert, liegen weiterhin unverschlüsselt bei WhatsApp vor. Aber vom „was“ schließen sich WhatsApp und dessen Mutterkonzern selbst aus.

Kritiker führen ins Feld, dass man mit den Metadaten eh viel mehr anfangen kann als mit den Inhalten, vor allem staatliche Behörden. Das ist richtig, und in dem Punkt sagt WhatsApp auch ganz klar, dass die Daten gespeichert werden und auf gerichtliche Anordnung sogar herausgegeben werden können. Aber dennoch ist die Tatsache, dass WhatsApp jetzt verschlüsselt, ein erheblicher Gewinn, denn man schickt auf einmal nicht mehr Postkarten, die jeder unterwegs theoretisch lesen kann, hin und her, sondern mit Umschlag und Siegel versehene Briefe. Selbiges gilt auch für über WhatsApp getätigte Anrufe. Auch diese sind von einem zum anderen Ende verschlüsselt.

Wer noch etwas tiefer ins Thema einsteigen möchte, dem empfehle ich diesen Artikel von Patrick Beuth auf Zeit Online.

WhatsApp

Das Erkennen der Verschlüsselung bei WhatsApp ist relativ einfach. Man bekommt direkt im Chatverlauf einen Hinweis, ab wann Nachrichten mit dem Gegenüber verschlüsselt wurden. Bei neuen Chats ist dies von Anfang an der Fall, bei länger laufenden Chats alles ab dem Punkt, wo beide Teilnehmer eine Version des Clients installiert haben, die die Verschlüsselung unterstützt. Weiterhin kann man in die Kontaktinfos des Gesprächspartners schauen. Dort wird auch angezeigt, ob Nachrichten mit diesem Gegenüber verschlüsselt werden oder nicht. Man kann zur Absicherung eine 60-stellige Prüfnummer abgleichen oder einen QR Code scannen. Dieser bestätigt aber nur ad hoc, dass die beiden Gesprächspartner gerade tatsächlich dasselbe Schlüsselpaar verwenden. Es fehlt ein Indikator wie z. B. bei Threema (siehe unten), dass das auch weiterhin so bleibt. Im Gegenteil: Wechselt einer der Partner das Handy oder musste WhatsApp neu installieren, wird einfach neu verschlüsselt und ein kurzer Hinweis angezeigt, wenn der Chat eben mit der neuen Verschlüsselung weiter läuft.

Während die Verschlüsselung, wie auch vom Test auf Heise Security attestiert, alltagstauglich ist und gut funktioniert, gibt es durchaus noch verbesserungswürdige Punkte bei der Benutzbarkeit, um die Kommunikation, wie gut man sich mit dem Gegenüber abgesichert hat, zu optimieren, z. B. durch eindeutige Abstufungen zwischen „verschlüsselt“ und „verschlüsselt und gegenseitig bestätigt“.

Und man muss ganz klar sagen: WhatsApp ist nicht anonym. Man muss sich zwingend mit seiner Handynummer anmelden. Auch im Bereich der Quelloffenheit, auch ein Kriterium für viele, wie sehr sie einer Verschlüsselung vertrauen, kann man nur teilweise einen Haken dran machen: WhatsApp nutzt die Bibliothek, die Open Whisper Systems auch für Signal entwickelt hat (siehe unten). Diese ist quelloffen, WhatsApp selbst aber nicht. Man muss sich also auf die Angaben bei WhatsApp verlassen, dass sie nicht irgendwelche Dinge tun, um die Verschlüsselung im Notfall vielleicht doch irgendwie auszuhebeln. Sie stellen jedoch ein ausführliches Whitepaper ins Netz, das die Ver- und Entschlüsselungsmethoden beschreibt, lassen sich also zumindest etwas in die Karten gucken.

Signal

Signal ist ein vollständig quelloffener Messenger für iOS, Android und in einer Beta den Browser Chrome, der dasselbe Protokoll verwendet wie WhatsApp. Open Whisper Systems, die Organisation hinter Signal, hat das Protokoll in WhatsApp implementiert. Signal wird vom Whistleblower Edward Snowden empfohlen. Quelloffen ist auch die Serverkomponente. Man kann sich also mit entsprechendem Knowhow ein eigenes Signal-Netz aufbauen, indem man Server und Clients auf eine eigene Infrastruktur anpasst.

Auch bei Signal, also dem, welches man im App Store bekommt und das die Infrastruktur von Open Whisper Systems nutzt, muss man sich mit seiner Handynummer anmelden. Man kann auch hier Adressbuchdaten freigeben, damit der Client andere Nutzer findet, die ebenfalls Signal nutzen. Signal unterstützt keine unverschlüsselte Kommunikation, und man kann gegenseitig QR Codes scannen, z. B. im persönlichen Kontakt, um der Verschlüsselung die Komponente „tatsächlich vertrauenswürdig und wirklich der Gesprächspartner, mit dem ich kommunizieren will“ hinzufügen.

Signal unterstützt im Gegensatz zu den anderen getesteten Messengern keine gerade bei Blinden sehr beliebten Sprachnachrichten. Lediglich Videos können verschickt werden.

Signal ist von allen getesteten Messengern unter iOS am schlechtesten mit VoiceOver zu bedienen. Es gibt einige unbeschriftete Schalter, Indikatoren für die Vertrauenswürdigkeit werden nicht gesprochen, und auch in den Chatverläufen gibt es einige Unstimmigkeiten. Die Androidversion konnte ich mangels einer zweiten SIM-Karte nicht testen. Das Gute: Da Signal quelloffen ist, können talentierte Entwickler sicher die VoiceOver-Probleme beheben und per Github einen sog. Pull-Request einreichen, auf dass die Verbesserungen in Zukunft einfließen werden.

Threema

Threema von der Schweizer Threema GmbH ist der einzige getestete Messenger, der einmalig Geld kostet. Unter iOS sind dies zur Zeit 2,49€, unter Android 2,99€. Der Mehrwert ist allerdings gut investiertes Geld. Obwohl es nicht vollständig quelloffen ist, sondern lediglich einige quelloffene Bibliotheken nutzt, bietet es doch mit die solideste Verschlüsselung mit Funktionen für Poweruser, ohne benutzerunfreundlich zu sein. Seit Version 2.6.2 für iOS hat Threema auch einige erhebliche Verbesserungen bei VoiceOver erfahren, so dass diese Funktionen auch alle für Blinde nutzbar sind. Für Android gilt dies im ähnlichen Umfang.

Um Threema nutzen zu können, ist keine Angabe der Handynummer oder E-Mail-Adresse nötig. Das Verifizieren dieser Angaben ist optional, um es anderen leichter zu machen, euch per Adressbuchsynchronisation zu finden. Man kann Threema aber vollständig anonym nutzen und seine Kontaktliste lediglich durch Hinzufügen der 8-stelligen Threema-ID oder durch gegenseitiges Scannen der QR Codes aufbauen.

Das Generieren der Threema-ID geschieht unter Zuhilfenahme zufälliger Berührungen des Bildschirms des eigenen Geräts, so dass man aktiv an der Erstellung des Schlüsselpaars beteiligt ist. Die Threema-ID  besteht immer aus acht Stellen und ist eine Kombination von Buchstaben und Ziffern. Ausnahmen sind sogenannte Kanäle (Channels), deren erstes Zeichen immer ein Sternchen „*“ ist. Threema-IDs können per Backup gesichert werden und sind so über Geräte- und sogar Betriebssystemgrenzen hinweg weiterverwendbar. Ich nutze meine aktuelle Threema-ID jetzt auf dem dritten iPhone, und meine erste ID, die ich zu meinem Android-Experiment 2014 auf Android übertrug und danach verloren glaubte, konnte ich vor einigen Wochen retten und nutze sie jetzt als Zweit-ID auf dem iPad.

Apropos iPad: Threema ist der einzige getestete Messenger, der auch auf einem iPad oder anderen Tablet funktioniert. Signal und WhatsApp sind ans Smartphone gebunden. Man braucht lediglich eine separate Threema-ID dafür und kann mit einem kleinen Trick eine Konversation dann auch von beiden Geräten aus führen.

Threema kennt drei Sicherheitsstufen: Unbestätigt sind einfach manuell hinzugefügte Threema-IDs. Wahrscheinlich Echt sind solche, die sich mit Handynummer und/oder E-Mail-Adresse bestätigt haben und per Adressbuchsynchronisation gefunden wurden. Und die bestätigten Kontakte, also die mit der höchsten Sicherheitsstufe, sind die, die man per gegenseitigem Scannen des QR Codes im persönlichen Kontakt bestätigt hat.

Threema unterstützt nicht nur Textnachrichten, auch in Gruppenchats, sondern auch Sprachnachrichten, Videos und diverse andere Anhänge. Ein Alleinstellungsmerkmal sind Abstimmungen, mit denen man sehr einfach in einer Gruppe z. B. einen besten gemeinsamen Termin finden kann.

Außerdem gibt es für jede Nachricht, die man empfängt, die Möglichkeit, ein „Daumen Hoch“ oder „Daumen Runter“ zu vergeben. Dazu tippt man lange auf die Nachricht und findet dann mit dem Finger (VoiceOver-Nutzer) etwas oberhalb mehrere Schaltflächen, von denen die ganz linke „Bestätigen“ (Daumen hoch) und die daneben „Ablehnen“ (Daumen runter) lauten.

Die Ersteinrichtung ist einmalig etwas aufwendiger als bei anderen Messengern, danach ist die Handhabung aber ebenso einfach wie bei den Alternativen. Trifft man sich persönlich, verifiziert man sich einmalig gegenseitig und kann danach ziemlich sicher sein, dass man tatsächlich immer mit dem gewünschten Gegenüber kommuniziert.

Und wer jetzt neugierig geworden ist, kann gern meine Threema-ID hinzufügen. Einfach beim lesen dieses Eintrags auf dem iOS- oder Android-Gerät und installiertem Threema den vorstehenden Link antippen und einen für mich passenden Namen eintragen. 😉 Wäre nur nett, wenn ihr, wenn ihr mich anschreibt, kurz verratet, wer ihr seid, ich verrat’s auch nicht weiter. 😉

Was ist mit iMessage?

Auch Apples Instant-Messaging-Dienst iMessage kommuniziert ausschließlich ende-zu-ende-verschlüsselt. Allerdings funktioniert diese Kommunikation nur zwischen solchen Nutzern, die iOS-Geräte und/oder Mac-Computer haben. Android- oder Windows-Phone-Nutzer sind hiervon ausgeschlossen, weswegen iMessage in diesem Vergleich keine Berücksichtigung fand. Auch ist, wie bei Apple üblich, kaum etwas bekannt, wo die Schlüssel generiert werden, ob es z. B. Forward Secrecy gibt, oder dass überhaupt verschlüsselt wird. Das wird nämlich nirgendwo angezeigt, wird von Apple lediglich erwähnt und wurde von unabhängiger Seite als zur Zeit gegeben überprüft. Ob das so bleibt, ist wahrscheinlich, wie auch andere sehr datenschutz-freundliche Einstellungen bei Apple zeigen, aber nicht sicher.

Fazit

Die Tatsache, dass WhatsApp echte Ende-Zu-Ende-Verschlüsselung eingeführt hat, ist, trotz berechtigter Kritik wegen der immer noch gespeicherten und verwerteten Metadaten, ein riesiger Fortschritt, der für erheblich mehr Privatsphäre bei der Kommunikation sorgt. Für viele ist das Kommunizieren über Instant-Messenger wie WhatsApp inzwischen teilweise wichtiger und alltäglicher als das Schreiben von E-Mails. Und je mehr davon verschlüsselt passiert, desto besser ist es für alle!

Die feinen Unterschiede gibt es dann eben in den Details. Und hierbei hat Threema eindeutig in Puncto Privatsphäre und anderer Mechanismen die Nase vorn. Nicht nur, dass der Serverstandort die Schweiz ist und nicht die USA, dürfte für viele Europäer sehr beruhigend sein. Auch andere Features wie die dreiteilige Einstufung der Benutzerechtheit sind wertvolle Werkzeuge für ein gutes Sicherheitsgefühl. Ich bin seit Jahren ein Threema-Fan, und es nutzen leider immer noch viel zu wenige von meinen Kontakten. 😉

Ich hoffe, dieser kleine Überblick war für die eine oder den anderen hilfreich, und vielleicht schreiben sich ja in Zukunft noch ein paar mehr von euch verschlüsselte Nachrichten! 🙂

Der Beitrag Messenger mit Verschlüsselung: WhatsApp, Threema und Signal erschien zuerst auf Marco Zehe EDV-Beratung.

Mobilitätstipp: Taxifahrten mit mytaxi

$
0
0

mytaxi ist eine app-basierte Vermittlung von Taxifahrten, die auch Menschen mit Behinderungen enorme Vorteile bietet. Hier ein paar Tipps aus meiner Erfahrung als regelmäßiger mytaxi-Nutzer.

Die Vorgeschichte

Manche Blogleserinnen und -leser erinnern sich vielleicht noch an den Dezember 2012, als ich einen Artikel veröffentlichte, in dem ich mytaxi als „Accessibility-Vaporware“ bezeichnete. Ich schimpfte damals deutlich darüber, dass trotz meiner Anmerkungen und Hilfsangebote an das Entwicklerteam dieses Hamburger Startups seit über einem Jahr (von meinem ersten Kontakt an gerechnet) keine Verbesserungen für VoiceOver-Benutzer unter iOS in Sicht waren.

Nun, es freut mich immer, wenn sich solche Artikel irgendwann überholt haben. So ist dies auch bei mytaxi passiert, und zwar schon relativ kurz nachdem ich diesen Artikel veröffentlicht hatte. Es ist verschiedenen Faktoren geschuldet, dass ich nicht früher drüber berichtet habe, unter anderem auch meiner eigenen Nachlässigkeit, für die ich mich hier in aller Form entschuldigen möchte.

Jedenfalls kontaktierte mich das mytaxi-Team einige Monate später, und zusammen arbeiteten wir daran, die Apps für iOS und Android zugänglicher zu machen. Als die Apps in einem als wirklich benutzbar zu nennenden Zustand waren, veröffentlichte mytaxi darüber sogar eine Pressemitteilung (nicht getaggtes, aber lesbares PDF), die von mehreren Medien aufgegriffen wurde.

Seitdem wird darauf geachtet, ob neue Funktionen mit VoiceOver oder TalkBack zugänglich sind. Und selbst wenn mal was schief geht und man dies meldet, wird zügig nachgebessert.

Die Grundfunktionen von mytaxi

Der Ablauf ist im Grunde so:

  1. Man öffnet die App und wird geortet.
  2. Nach Bestätigung der Abholadresse kann man entweder das Taxi sofort bestellen oder Bestelloptionen festlegen. Tut man dies zum ersten Mal, kann man Standards speichern. Diese können später auch aktualisiert werden. So kann man festlegen, dass Stammfahrer bevorzugt werden sollen, ob man ein rollstuhlgerechtes Taxi braucht, ob eine Standardanmerkung immer eingefügt werden soll usw.
  3. Nach dem Tippen auf Taxi Bestellen wird ein Taxi gesucht. Wird es gefunden, werden der Name des Fahrers, für Sehende ein Foto des Fahrers, Typ und Nummernschild des Taxis und die ungefähre Anfahrtszeit angezeigt. Diese aktualisiert sich, je näher der Fahrer einem kommt.
  4. Ist der Fahrer angekommen, signalisiert er das dem mytaxi-System durch seine Fahrer-App. Ist man selbst gerade in einer anderen App oder ist das Handy gesperrt, erhält man eine Pushbenachrichtigung. Sehr praktisch auch, wenn man selbst noch zu Hause ist und erst hinaus gehen will, wenn das Taxi angekommen ist.
  5. Am Ende der Fahrt kann man entweder per App oder per Bargeld bezahlen. Entscheidet man sich fürs Zahlen per App, übermittelt der Fahrer dem Fahrgast den Fahrpreis, der Fahrgast kann ein Trinkgeld festlegen, wobei hier 10, 15 oder 20% fest vorgegeben sind, ggf. das Zahlungsmittel auswählen und dann per Antippen des Bestätigen-Schalters die Zahlung einleiten. Hat man ein Handy mit Fingerabdrucksensor, und hat man dies eingerichtet, kann man nun per Fingerabdruck die Zahlung autorisieren, ansonsten muss man die PIN eingeben, die man beim Einrichten von mytaxi angelegt hat.
  6. Nach erfolgreichem Zahlungsvorgang kann man noch Fahrer und Fahrzeug bewerten, den Fahrer ggf. als Stammfahrer hinzufügen und den Vorgang so abschließen. Die Bewertung kann man aber auch später vornehmen, wenn man es gerade z. B. eilig hat und dies später in Ruhe machen möchte.

Es gibt auch einige Sonderfunktionen wie z. B. an einigen Flughäfen das schnelle Rufen eines in der Nähe befindlichen mytaxi. Auch sehr praktisch sind sogenannte Einsteigerfahrten. Man ist irgendwo, winkt einem Taxi, steigt ein und kann am Ende trotzdem per App bezahlen, indem man selbst und der Fahrer die mytaxi-App öffnet und diese sich gegenseitig finden. Der Fahrer übermittelt den Fahrpreis, und der Rest läuft ab wie oben beschrieben.

Nach jeder Fahrt erhält man die Quittung automatisch per E-Mail zugeschickt, man muss also nicht umständlich mit Papierquittungen hantieren und diese dann ggf. erst scannen, bevor man sie bei Reisekostenabrechnungen einreicht. Außerdem gibt es ein monatliches Fahrtenbuch, das ebenfalls per E-Mail kommt.

Wo liegen die Vorteile für Menschen mit Behinderungen?

Zum einen weiß man schon im Vorwege, wer kommt. Selbst wenn man das Bild nicht sehen kann, weiß man, was für ein Taxi kommt, den Namen des Fahrers usw. Bei Anrufen in einer Taxizentrale, gerade in größeren Städten, weiß man nicht, wer tatsächlich kommen wird. Eine der größten Taxizentralen in Hamburg gibt zwar z. B. die Nummer des Wagens durch, aber das sagt einem immer noch nicht, welcher Fahrer drin sitzt.

Man hat weiterhin eine direkte Kontaktmöglichkeit zum Fahrer, wenn man z. B. Schwierigkeiten hat, sich zu finden. Sowohl Fahrgast als auch Fahrer hinterlegen nämlich ihre Handynummern, so dass sowohl per SMS als auch per Anruf ein Austausch erfolgen kann. Telefoniert man nicht oder nicht gern, kann man dies ebenfalls angeben und z. B. auf Kontakt per SMS bestehen. Würde man ein Taxi per Telefonzentrale rufen, hätte man diese Optionen nicht.

Auch der Fahrer sieht im Vorwege, wen er abholt. Ich empfehle unbedingt, ein Profilfoto im fahrgastprofil zu hinterlegen, das euch selbst zeigt, das erleichtert das Auffinden ungemein, gerade in Gegenden, wo ihr selbst euch vielleicht nicht gut auskennt.

Man weiß ungefähr vorher, was die Fahrt kosten wird. mytaxi enthält einen Fahrpreisrechner, der, wenn man neben der Abhol- auch die Zieladresse eingibt, den ungefähren Fahrpreis berechnet.

Ich persönlich finde das Zahlen per App unheimlich praktisch. ich hantiere nicht mehr gern mit Bargeld, und das Zahlen per App ist eine ganz tolle Möglichkeit, den Fahrer nicht nur zu bezahlen, sondern ihm auch ein angemessenes, weil abstufbares, Trinkgeld zu geben. Auch für den Fahrer ist es ungefährlicher, je weniger Bargeld er im Auto mit sich führt. Er ist dann nämlich weniger interessant als Ziel für Raubüberfälle.

Baut man sich mit der Zeit eine Liste von Stammfahrern auf, sind die Chancen größer, dass man öfter mit Fahrern fährt, die man schon kennt, bei denen man sich sicher fühlt und die flexibel z. B. auf Sonderwünsche oder -bedürfnisse reagieren. Das funktioniert auch städteübergreifend, so dass man Stammfahrer in solchen Städten haben kann, die man häufiger besucht. Auch Fahrer bekommen angezeigt, wenn jemand anfragt, der ihn als Stammfahrer eingetragen hat. So etwas macht man ja in der Regel nur bei Fahrern, mit denen man gute Erfahrungen hat, und der Fahrer bekommt dann auch signalisiert, dass da ein Fahrgast ist, der mit ihm schon mal zufrieden war.

Fazit

Es gibt natürlich auch andere Fahrtvermittlungs-Apps als mytaxi. Im deutschsprachigen Raum ist mytaxi aber die wohl mit am meisten genutzte App in diesem Bereich. Im englischsprachigen Raum erfreut sich auch der Fahrdienst Uber einer großen Beliebtheit uz. B. unter blinden Fahrgästen, und die Prinzipien sind ähnlich wie hier beschrieben.

Auch zeichnet mytaxi aus, dass sie nach entsprechender Überzeugungsarbeit zu Beginn jetzt sehr hinter dem Thema Mobilität für Menschen mit Behinderungen stehen und darauf achten, dass ihre App auch für Menschen mit Behinderungen nutzbar ist und bleibt. Ich habe ein, zwei andere In Hamburg vorhandene Taxizentralen-Apps ausprobiert, und keine kommt in Puncto Benutzerfreundlichkeit, Komfort und Zugänglichkeit an mytaxi heran.

mytaxi hat auch den Vorteil, dass es sie in vielen Städten Deutschlands, Österreichs und anderer Länder gibt. In jeder „unterstützten Stadt“ hat man also dasselbe System zum Rufen eines Taxis und muss sich nicht neu eingewöhnen.

Ich bin seit längerem überzeugter mytaxi-Fahrer, und vielleicht findet ja auch die eine Leserin oder der andere Leser Gefallen daran!

Der Beitrag Mobilitätstipp: Taxifahrten mit mytaxi erschien zuerst auf Marco Zehe EDV-Beratung.

Apple AirPods: Meine Ersten Eindrücke

$
0
0

Durch eine unerwartete Warenlieferung an meinen örtlichen Apple Store war ich kurz nach Weihnachten in der Lage, mir einen Satz AirPods, die neuen drahtlosen Ohrhörer von Apple, zuzulegen. Hier sind meine ersten Eindrücke.

Auspacken und Pairing

Die Apple AirPods sind komplett drahtlose Ohrhörer. Sie kommen in einem kleinen Ladekästchen, das die AirPods über mehrere Abschnitte mit insgesamt ca. 24 Stunden Batterrieladung versehen kann. Selbst wird es per üblichem Lightning-Anschluss aufgeladen. Ein USB-zu-Lightning-Kabel liegt bei. Die AirPods selbst laufen mit einer Ladung etwa fünf Stunden. Setzt man sie dann in die Ladebox ein, haben sie nach bereits einer Viertelstunde wieder Ladung für weitere drei Stunden.

Die Box ist schön gestaltet, die beiden Ohrhörer werden reliefartig auf dem Deckel fühlbar, ähnlich wie dies z. B. schon lange bei iPhones auch üblich ist. Zum Lieferumfang gehört neben dem Kabel und dem Ladekästchen inkl. EarPods nur noch etwas Papierkram, eine Kurzanleitung, die eh niemand braucht. 😉

Die AirPods sitzen magnetisch gehalten im Ladekästchen. Die Halterung ist so konstruiert, dass jeder Ohrhörer nur in genau einer Position in die Box passt. Hat man den richtigen Ansatz gefunden, hilft der Magnetismus dabei, den Ohrhörer in die genau richtige Position zu bringen. Der Deckel der Ladebox ist ebenfalls mit einem Magnetverschluss versehen und schließt sicher.

Das Verpartnern der AirPods mit dem eigenen iOS-Gerät ist denkbar einfach: Dank des Apple W1 Chip öffnet man lediglich die Box neben seinem iPhone oder anderen iOS-Gerät und tippt auf Verbinden. Die AirPods werden sofort verpartnert und die Verpartnerung auch an alle anderen mit derselben iCloud-ID angemeldeten iOS-Geräte, Apple Watches und Macs weitergereicht. Voraussetzung ist lediglich, dass das Gerät mit iOS 10, WatchOS 3, MacOS 10.12 Sierra oder dem neuesten TVOS auf dem Apple TV der 4. Generation läuft. Man muss die AirPods also nicht auf jedem seiner Geräte extra neu koppeln.

Audioqualität und VoiceOver-Performance

Wer die Apple EarPods, also die Headsets, die mit iPhones mitgeliefert werden, kennt, kennt im Grunde auch den Klang der AirPods. Die Form ist fast identisch, der Stil, wo bei den EarPods das Kabel aus den Ohrsteckern kommt, ist bei den AirPods nur etwas länger, und der Teil, der ins Ohr eingesteckt wird, ein ganz klein bisschen größer. In meinen Ohren saßen schon die EarPods super, die AirPods sitzen perfekt. Ich habe es bisher auch nicht geschafft, sie durch Kopfbewegungen oder Positionswechsel zu verlieren. Die häufigste Ursache, warum EarPods aus den Ohren rutschen, dürfte eh Kabelzug sein, und der fällt hier ja weg.

Auch die Klangqualität ist den EarPods sehr ähnlich. Der Bass kommt noch etwas kräftiger, die Mitten und Höhen sind ähnlich brillant wie bei den kabelgebundenen Geschwistern.

Die Performance mit VoiceOver ist sehr gut. Es gibt kaum eine Verzögerung, wie man sie manchmal von anderen Bluetooth-Headsets oder -Kopfhörern kennt. Apple scheint bei der Eigenentwicklung des W1-Chips Wert darauf gelegt zu haben, dass es möglichst eine geringe Latenz gibt. Auch hat Apple in iOS 10.2 nochmals an dieser Performance geschraubt. Ich besitze auch ein paar Beats Solo3 Wireless-Kopfhörer, die ebenfalls mit einem W1-Chip ausgestattet sind, und die Latenz war vor iOS 10.2 definitiv höher.

Das Mikrofon

Die AirPods besitzen auch in jedem Ohrstecker ein Mikrofon. In der Standardeinstellung wird das richtige automatisch ausgewählt, um den möglichst besten Klang zu erreichen. Die Mikrofone haben bei Aufnahmen in z. B. der App Sprachmemos definitiv leichte Artefakte, die vom zur Verfügung stehenden Bluetooth-Protokoll herrühren. Die Qualität ist aber durchaus sehr annehmbar. Gerade wenn man telefoniert, dürften diese kaum ins Gewicht fallen. Ein Freund, der durch eine Hörbehinderung sehr kritisch ist, was Sprachverständlichkeit angeht, beschrieb sie mir so, dass die Tiefen und Höhen definitiv beschnitten sind, die Mitten dafür aber sehr kräftig kommen und für ihn S-, T- und P-Laute sehr gut hörbar waren. Die Qualität gefällt mir persönlich auch sehr, definitiv auch besser als bei den in den Beats Solo3 verbauten Mikrofonen, welche noch viel stärker nach GSM-Telefon klingen, selbst wenn man eine Aufnahme in Sprachmemos macht.

Die AirPods haben vom Mikrofon her also einen Klang, der dem der Mikrofone in den EarPods kaum unterlegen sein dürfte. Selbst WhatsApp-Sprachnachrichten kommen damit immer noch in einer annehmbaren Qualität rüber, können aber natürlich nicht mit dem Volumen und der Klarheit des ins iPhone oder iPad eingebauten Mikrofons mithalten. Aber das können die EarPods auch nicht. 😉

Handhabung mit mehreren Geräten

Die AirPods verbinden sich standardmäßig immer mit dem zuletzt verwendeten Gerät, wenn man sie aus der Ladebox nimmt und sich ins Ohr steckt. Gerade wenn mehrere bekannte Geräte in Reichweite sind, wie dies zu Hause ja in der Regel der Fall sein dürfte, bedeutet dies, dass keine automatische Umschaltung auf ein anderes bekanntes Gerät erfolgt, wenn man dieses zur Hand nimmt. Man muss also einmal übers Kontrollzentrum, Seite 2 das Audioziel auf die AirPods einstellen, und schon kommt sowohl VoiceOver als auch die Musikwiedergabe über die AirPods. Selbiges gilt auch für die Apple Watch und den Mac. Bei MacOS findet man die AirPods im Bluetooth-Extra-Menü.

Eine noch intelligentere Übernahme wäre natürlich wünschenswert, z. B. wenn man das iPad zuklappt und das iPhone zur Hand nimmt, das Apple TV schlafen schickt und zum iPad wechselt o. ä. Aber da Apple ja die Kontrolle über sämtliche Hard- und Software hat, dürfte hier auch noch mit weiteren Verbesserungen der Benutzbarkeit zu rechnen sein. Mich stören die paar Handgriffe jedenfalls nicht, wenn ich vom einen auf ein anderes Gerät wechseln will.

Weitere Beobachtungen

Die Handgriffe, um die AirPods aus ihrer Ladebox zu entnehmen oder sie dort wieder einzusetzen, gehen schnell in Fleisch und Blut über. Es geht definitiv schneller als das ständige Entwirren der EarPods-Kabel. Auch die Bewegungsfreiheit durch das Wegfallen der Kabel ist etwas, das ich sehr genieße. Das iPhone kann beim Hören von Musik oder ähnlichem in der Hosentasche verbleiben, und man muss nicht befürchten, es durch unbedachte Bewegungen am Kabel herauszuziehen und einen Absturz zu riskieren, wenn sein Eigengewicht stärker ist als die Steckverbindung. Gerade bei früheren 3,5-mm-Klinkenstecker-Modellen ist mir ein iPhone durchaus schon mal aus geringer Höhe abgestürzt.

Auch meine Befürchtung, ich könne mit der Akkulaufzeit nicht zurecht kommen, hat sich nicht bestätigt. Dadurch, dass man sie einfach immer in die Ladebox zurück packt, wenn man sie gerade nicht verwendet, laden sie sich ja ständig wieder auf. Man muss halt nur dafür sorgen, dass man die Box nachts immer auflädt, ähnlich wie die Apple Watch.

Fazit

Die „kabellose Zukunft“ von Apple gefällt mir sehr gut. Die AirPods sind ordentlich verarbeitet, das Ladekästchen ebenso, und es ist darüber hinaus ein echter Handschmeichler. Die AirPods sind so eines der Produkte, weswegen viele Apple lieben: Sie funktionieren einfach. Dieses super einfache Koppeln mit einem Tippen, das diese Kopplung per iCloud an alle anderen kompatiblen angemeldeten Geräte weiterreicht, ist eine echt feine Sache! Dass man nicht mehr mit Kabeln herumhühnern muss, ist ein echter Gewinn. Und die Audiosynchronisierung zwischen den beiden AirPods hat bei mir bisher keinen Grund zur Klage gegeben. Es kommt alles sauber in Stereo, so wie es soll. Die Performance mit VoiceOver ist sehr gut. Einzig das Handoff zwischen Geräten beim offensichtlichen Wechsel darf noch etwas reibungsloser und mit weniger Tipparbeit passieren. Aber Apple sind ja erst am Anfang dieses Weges, und dafür funktioniert’s schon echt prima!

Der Beitrag Apple AirPods: Meine Ersten Eindrücke erschien zuerst auf Marco Zehe EDV-Beratung.

Benutzung von Twitter: Hauseigene App oder Dritthersteller-Client?

$
0
0

Seit Jahren bin ich ein großer Fan des Social-Media-Dienstes Twitter. Doch in letzter Zeit frage ich mich immer öfter, wie ich den Dienst zukünftig nutzen soll.

Twitter ist von Beginn an mit einer Programmierschnittstelle ausgestattet gewesen, mit deren Hilfe sich Programmierer eigene Oberflächen bauen und diese natürlich auch an andere weitergeben konnten. So entstand neben der traditionellen Twitter-Webseite z. B. EasyChirp, ein barrierefreier Web-Client. Auch mehrere freie oder kommerzielle Twitter-Clients für diverse Plattformen kamen im Lauf der letzten 10 Jahre auf den Markt. Diese sind besonders auf Smartphones und Tablets beliebt, weil sie in der Regel schneller und übersichtlicher sind als die Webseite. Selbst Twitter bietet für seinen Dienst eigene native Clients für iOS und Android, und sogar Windows 10, an.

Diverse Alleinstellungsmerkmale

Am Anfang war damit auch alles ganz prima. Aber vor einiger Zeit begann Twitter, Funktionen in seinen Dienst einzubauen, die nicht mehr über die öffentlich zugänglichen Programmierschnittstellen erreichbar gemacht wurden. Clients von Drittherstellern konnten diese also nicht nutzen. Zu diesen Funktionen gehören unter anderem:

  • Gruppen-Direktnachrichten. Direktnachrichten zwischen einzelnen Twitter-Nutzern gehen natürlich, aber seit einiger Zeit kann man auch private Gruppen-DMs, ähnlich wie Gruppenchats anderer Dienste, aufbauen. Das geht nur übers Webinterface oder die hauseigenen Twitter-Clients. Schlimmer noch, selbst wenn man welche bekommt, werden diese nicht in die Pushbenachrichtigungen von Dritthersteller-Clients aufgenommen, so dass man gar nicht mitbekommt, wenn man in einen Gruppenchat eingeladen wurde, es sei denn, man schaut regelmäßig auf der Seite oder dem Twitter-Client vorbei.
  • Umfragen. Man sieht zwar den Ursprungstweet, aber nicht, dass es sich um eine Umfrage handelt. Um diese zu beantworten, muss man den Tweet irgendwie an die Webseite oder den Twitter-Client weiterleiten.
  • Twitter-Cards. Dies sind Vorschauen von z. B. Blogartikeln wie dem hier oder anderen Nachrichtenseiten. Auch diese werden nur im Web oder den nativen Clients angezeigt.
  • Twitter-Moments. Das sind Twitter-Serien, die man nur im nativen Client oder der Webseite erstellen und ansehen kann.
  • Betreibt man einen geschützten Account, bei dem man alle Follower bestätigen muss, bevor sie die Tweets lesen können, geht das nur über die Webseite oder nativen Clients. Auch Followeranfragen werden nicht an andere Clients gepusht.
  • Benachrichtigungen im Katastrophenfall. Die mobilen Apps bieten die Möglichkeit, sich gezielt bei Katastrophen benachrichtigen zu lassen, eine Möglichkeit, die Dritthersteller-Clients nicht haben.

Andererseits haben andere Clients über die Jahre natürlich auch einige attraktive Features entwickelt. Zum einen sind dies meist umfangreiche Filterfunktionen nach bestimmten Twitter-Clients (nie wieder paper.ly-Tweets!) oder Hashtags oder Schlüsselwörtern. So wird das Herausfiltern von Tweets zu bestimmten Sportereignissen oder Trash-TV-Sendungen zum Kinderspiel. Manche Clients bieten sogar an, eine solche Stummschaltung nur für bestimmte Zeiträume einzustellen. Zum anderen gibt es natürlich auch die Möglichkeit, dass Clients Tweets anders darstellen, mehrere Zeitleisten parallel zueinander darstellen können oder ähnliches. Gerade die Filterfunktionen nach Hashtags oder Clients lässt Twitter selbst schmerzlich vermissen.

Eine Frage der Ordnung

Auch bei der Darstellung selbst gibt es Unterschiede. Die meisten Clients von Drittherstellern stellen die Tweets chronologisch oder umgekehrt chronologisch dar. Einige bieten auch eine sogenannte Unified Timeline an, in der Tweets (inkl. Antworten von Leuten, denen man folgt) mit den Erwähnungen zusammengelegt werden, in denen dann auch Erwähnungen von solchen Usern stehen, denen man nicht folgt. Twitter auf der anderen Seite zeigt Tweets prinzipiell zwar auch chronologisch an, wenn man die Option „Interessanteste Tweets zuerst“ ausgeschaltet hat, mixt aber munter auch Antworten direkt hinein und holt so manchmal auch viel ältere Tweets zum aktuellen Zeitpunkt. Oft sogar den Ursprungstweet einer Unterhaltung. Auch mischt Twitter öfter mal Tweets von Leuten in die Timeline, denen man gar nicht folgt, dessen Tweets aber z. B. von besonders vielen, denen man folgt, mit einem Like versehen oder retweetet wurden. Die Darstellung ist also viel dynamischer und hält sich eben nicht strikt an die Regel, dass nur Tweets von Leuten, denen man folgt, plus deren Retweets, und Erwähnungen angezeigt werden. Auf der einen Seite ist für Control Freaks diese dynamische Herangehensweise sehr verwirrend, bis hin zu störend, auf der anderen Seite bekommt man so vielleicht aber auch mal Tweets von jemandem zu sehen, dem man noch nicht folgt, dem man aber vielleicht gern folgen möchte.

Apropos folgen möchten: Auch mixt Twitter selbst gern mal Folger-Empfehlungen, Tweets „während Du weg warst“ und natürlich gesponsorte Tweets in die Zeitleiste. Letzteres dient natürlich zum Geld verdienen. Clients von Drittherstellern bekommen diese gesponsorten Tweets nicht mit in die Programmierschnittstelle. An denen verdient Twitter also auch kein Geld.

Ebenfalls gibt es Unterschiede bei den Benachrichtigungen. Twitter selbst ist viel smarter bei den Benachrichtigungen und zeigt z. B. auch an, wenn den eigenen Followern Tweets gefallen, die man retweetet hat. So kann man schnell erfassen, wer eventuell gut bei den eigenen Followern ankommt und wer nicht. Diese Art Benachrichtigung ist mir bisher bei keinem anderen Client begegnet.

Gibt es eine Lösung?

Klar kann man zwei Clients parallel betreiben. Es ist aber schon lästig, für bestimmte Funktionen den Client wechseln zu müssen. Z. B. um nur mal eben eine Umfrage zu beantworten, muss man den Tweet irgendwie an den hauseigenen Twitter-Client senden. Das geht je nach Betriebssystem und verwendetem Dritthersteller-Client mal einfacher, mal weniger.

Die Frage ist also, ob man das möchte, oder ob man vielleicht lieber auf die Filterfunktionen verzichtet, sich dafür aber durch Tweets zum sonntäglichen Krimi quält, den man selbst seit Jahren schon nicht mehr guckt, oder gesponsorte Tweets und solche, die unsortiert in die Timeline gespült werden, erträgt, dafür aber nur noch einen Client nutzt.

Ich habe für mich dafür noch keine Lösung gefunden, empfinde die aktuelle Situation aber als sehr unbefriedigend. Vielleicht, so ein spontaner Gedanke beim Schreiben, sollte ich mal eine Challenge machen, eine Woche oder so nur mit den hauseigenen Twitter-Clients verbringen. Oder gucken, wie lange ich durchhalte, ohne wahnsinnig zu werden. 😉

Bei anderen Social-Media-Plattformen wie Facebook oder Google+ (nutzt das noch jemand?) gibt es dieses „Problem“ gar nicht, es gibt nämlich keine Schnittstellen für Hersteller von Drittsoftware.

Was meint ihr? Wie handhabt ihr euer Twitter-Dasein? Hinterlasst gern einen Kommentar oder antwortet mir auf Twitter, wenn ihr diesen Beitrag über einen Tweet von mir aufgerufen habt. Ich bin gespannt! 🙂

Der Beitrag Benutzung von Twitter: Hauseigene App oder Dritthersteller-Client? erschien zuerst auf Marco Zehe EDV-Beratung.


Neu bei der Barrierefreiheit in iOS 11

$
0
0

iOS 11 ist am 19.09.2017 für alle freigegeben worden. Hier sind einige Neuerungen und bemerkenswerte Features in Bezug auf die Nutzung der Bedienungshilfen.

Nach einer ausführlichen Beta-Phase gehört iOS 11 definitiv zu den stabileren Erstreleases in der iOS-Reihe. Vorweg also schon mal die Empfehlung, dass es nach entsprechendem Backup nach meinem Dafürhalten „gefahrlos“ installiert werden kann.

Nach der Installation erwarten uns einige Neuerungen bei den Bedienungshilfen und in der Bedienung bereits bekannter Features. Auf einige soll in diesem Artikel näher eingegangen werden.

Bilderkennung überall

In iOS 10 führte Apple eine Bilderkennung für Fotos in der Fotos-App ein. Anhand verschiedener Merkmale wurden Thema, Anzahl Personen, ggf. deren Namen, sofern die Personen der Mediathek bekannt waren, usw. vom Gerät erkannt. Auch bestimmte Tiere und Naturszenarien erkannte iOS 10 bereits recht zuverlässig. Auch wenn diese Beschreibungen mit Sicherheit noch nicht sehr detailreich waren, so konnte man zumindest recht zuverlässig eine Idee davon bekommen, was das Foto zeigte, das man gerade ausgewählt hatte.

In iOS 11 geht Apple nun gleich mehrere Schritte weiter. Zum einen haben sie eine Texterkennung hinzugefügt. Enthält ein Bild Text, wird versucht, diesen zu erkennen. Die Qualität der Texterkennung reicht noch nicht an die eines KNFB Readers heran, ist aber durchaus schon in vielen Fällen brauchbar.

Zum anderen stellt Apple die Bilderkennung in allen Apps zur Verfügung, in denen Bilder angezeigt werden und die entsprechend der Programmierschnittstellen richtig als „Bild“ von VoiceOver erkannt werden. Damit ein evtl. vom Entwickler vergebenes Label für so ein Bild nicht überschrieben wird, hat Apple extra für die Bilderkennung die Drei-Finger-Tipp-Geste erweitert. Befindet sich der VoiceOver-Fokus auf so einem Bild, tippt man also einmal mit drei Fingern, und VoiceOver erkennt das Bild.

Eine Einschränkung gibt es allerdings: Die Bilderkennung funktioniert nur bei abgeschaltetem Bildschirmvorhang (mit 3 Fingern 3x tippen). Der Bildschirmvorhang ist zwar standardmäßig ausgeschaltet, wird aber von vielen von uns eingeschaltet, um z. B. in der Öffentlichkeit zu verhindern, dass uns jemand über die Schulter gucken kann, ohne dass wir es merken. Für die Bilderkennung muss der Bildschirmvorhang abgeschaltet werden, bevor das Bild aufgerufen wird. Zwei Beispiele aus Apps, die beim Release sofort funktionieren:

Twitterrific

Stößt man im Twitter-Client Twitterrific auf einen Tweet mit Bildanhang, kann man mit Hilfe des Aktionsrotors die Open Media-Aktion ausführen und doppeltippen. Das Bild wird nun in einer Vollansicht geöffnet, und VoiceOver sagt auch „Bild“.

Tippt man nun mit drei Fingern einmal, versucht VoiceOver zu erkennen, was auf dem Bild ist. Erst kommt die Helligkeitserkennung und ob das Bild scharf oder unscharf erkannt wird. Dann kommt eine eventuelle Themen- und Personenbeschreibung, inklusive der Namen erkannter Gesichter. Befindet sich Text auf dem Bild, wird auch dieses erkannt.

Jetzt kann man entscheiden, ob man durch Doppeltippen und Halten die Teilen-Funktion aufruft, das Bild speichert oder an den KNFB Reader übergibt, um es genauer erkennen zu lassen.

Facebook

Facebook hat bereits selbst eine Bilderkennung integriert, die auch mit Hilfe künstlicher Intelligenz versucht, Motive und Personen auf Bildern zu erkennen. Facebook setzt die Bilder in der Anzeige einer Facebook-Statusmeldung ebenfalls korrekt um. Man kann also einfach einen Facebook-Status doppeltippen und bekommt zunächst mal zusammen mit der Tatsache, dass es sich um ein Bild handelt, Facebooks erkannte Bildbeschreibung vorgelesen.

Tippt man nun mit drei Fingern, lässt Apple über dieses Bild seine eigene Bilderkennung laufen. Tests im nicht repräsentativen Newsfeed des Autors haben gezeigt, dass sich die beiden Beschreibungen nicht nur ähneln, sondern erstaunlich oft ergänzen, so dass man einen besseren Eindruck davon bekommt, was auf dem Bild ist. Und Facebook hat noch keine Texterkennung, nur dass es sich um Text handelt. Apple erkennt hier im ersten Anlauf zumindest oft auch Auszüge dessen, was da auf dem Bild zu lesen ist.

Meinung

Dies ist ein riesiger Schritt vorwärts in der Teilhabe für blinde und stark seheingeschränkte Nutzer von iOS. Die Tatsache, dass man jetzt überall Bilder erkennen kann, ohne sie erst in der Fotomediathek speichern zu müssen, erleichtert das Arbeiten damit erheblich. Und im Fall weiterer Bilderkennungen wie bei Facebook ergänzen sich die Angaben oft sehr gewinnbringend.

Allerdings muss Apple noch dringend an der Texterkennung schrauben. Sie erkennt zwar durchaus schon mehrere Sprachen korrekt, aber die Texte selbst sind oft noch sehr lückenhaft. Muster dessen, was erkannt wird und was nicht, und vor allem warum nicht, haben sich mir noch nicht erschlossen. Aber dass ein Anfang gemacht wurde, auf dem aufgebaut werden kann, ist ein riesiger Fortschritt!

Und nein, dies ersetzt nicht die Pflicht eines jeden, seinen Bildern ordentliche Bildbeschreibungen mitzugeben. Künstliche Intelligenz kann inzwischen einiges, aber noch lange nicht genug, um die strukturierte Beschreibung eines Menschen zu ersetzen.

Braille zeigt an wie eingegeben

In iOS 11 findet keine automatische Rückübersetzung von eingegebener Kurzschrift auf die Braillezeile statt. Früher war es so, dass Apple den in Kurzschrift über die Brailletastatur eingegebenen Text gleich übersetzt und die Übersetzung dann auf die Braillezeile geschrieben hat. iOS 11 verhält sich hier stärker wie klassische Notizgeräte, indem die Braillezeile nämlich genau das abbildet, was man eingegeben hat. VoiceOver liest den rückübersetzten Text, und auch nach dem Abschicken einer nachricht, eines Tweets o. ä. bekommen die anderen natürlich den rückübersetzten Text zu lesen, aber auf der Braillezeile erscheint er jetzt so wie man ihn tatsächlich eingegeben hat.

Diese Änderung wird sicherlich für einige Kontroversen sorgen. Die einen werden jubeln, die anderen werden vermissen, dass sie Rückübersetzungsfehler nicht gleich auf der Braillezeile angezeigt bekommen.

Rechtschreibfehler ansteuerbar

Befindet man sich in einem Textfeld mit aktiver Rechtschreibprüfung, kann man jetzt mit dem Rotor den Punkt „Rechtschreibfehler“ auswählen und mit rauf und runter wischen den Cursor an den Anfang des vorherigen bzw. nächsten falsch geschriebenen Wortes bewegen. Das erleichtert das Auffinden von Tippfehlern.

Adaptive Farbumkehr

Hat man unter „Display-Anpassungen“ „Farben umkehren“ aktiviert, versucht Apple jetzt, die Umkehr intelligenter zu gestalten, dass z. B. Fotos durch die Farbumkehr nicht verfälscht werden o. ä. Auch kann man hier noch einige andere darauf abgestimmte Dinge einstellen. Diejenigen, die dies nutzen, werden hier sicher noch einiges für sich und ihre Augen besser einstellen können als vorher. Da ich selbst blind bin, kann ich das leider nur so weitergeben. 😉

Erweiterungen für Hörgeräte-Träger

Für die Träger von Hörgeräten gibt es unter „Hören“ einige weitere Einstellungen zur Kompatibilität, Geräuschreduzierung und anderen Charakteristika, die für ein besseres Integrieren von iOS in die Arbeit mit den eigenen Hörgeräten sorgen sollen.

Bekannte Probleme

Da keine Software perfekt ist, gibt es auch in iOS 11 einige Probleme, allerdings ist nur eines davon wirklich schwerwiegend. Dieses betrifft das schnelle Eingeben von Braille. Hier kann es vorkommen, dass iOS nicht mitkommt, selbst auf modernster Hardware. Dies scheint aber nicht alle Braillezeilen oder die Bildschirm-Brailleeingabe zu betreffen, aber zumindest einige Modelle wie die Freedom-Scientific-Focus-Zeilen sind definitiv von dem Problem betroffen. Bleibt zu hoffen, dass Apple hier schnell nachbessert.

Ein weiteres Problem, das manche sehr stören könnte, ist, dass beim Eingabemodus „10 Finger“ das Eingeben von Sonderzeichen wie ß etwas kaputt gemacht wurde. In ioS 10 konnte man einfach den Finger lange auf dem s halten, dann kam die Auswahl hoch, und man konnte durch Ziehen das ß auswählen. Das ist in der aktuellen Version kaputt gegangen und bereits an Apple gemeldet. Man kann sich behelfen, indem man erst ein s eingibt, dann gleich doppeltippen und halten ausführt, im Popup das ß wählt und dann ein Zeichen zurückgeht und das überflüssige s löscht.

Auch dass noch nicht aller Text auf Bildern ordentlich erkannt wird, ist etwas, woran Apple definitiv noch schrauben müssen (siehe oben).

Weitere Probleme werden ggf. hier im Laufe der nächsten Tage noch nachgetragen, wenn welche gefunden werden, sobald iOS die Betaphase verlässt und mehr Leute es nutzen.

Fazit

iOS 11 ist ein lohnendes Update, schon allein wegen der Bilderkennung und Erkennung von Text in Bildern, die jetzt überall verfügbar sind, wo Bilder ordnungsgemäß angezeigt werden und für die Bedienungshilfen ausgezeichnet sind. Aber wie bei allen großen Updates empfiehlt sich vorher dringend ein Backup zu machen, falls doch mal etwas schiefgehen sollte.

Der Beitrag Neu bei der Barrierefreiheit in iOS 11 erschien zuerst auf Marco Zehe EDV-Beratung.

Multitasking und Drag And Drop mit VoiceOver

$
0
0

In iOS 11 hat Apple den Funktionsumfang fürs iPad deutlich erweitert. Hier zeige ich zwei der wichtigsten Neuerungen aus Sicht eines Anwenders der Bedienungshilfe VoiceOver.

Multitasking

iOS kann Multitasking seit Version 9, welche vor zwei Jahren erschien. Beim Multitasking kann man auf entsprechend geeigneten iPads im Querformat zwei Apps nebeneinander geöffnet haben. Sie teilen sich dann den Bildschirm entweder zu gleichen Teilen, zu 70%/30%, oder eine zweite App wird auf eine erste in einem kleinen Fenster als Überblendung angezeigt, hat dann ungefähr die Größe einer iPhone-App.

In iOS 11 stehen diese Modi weiterhin zur Verfügung, wurden jedoch erweitert. So kann man die überblendete App jetzt nicht nur rechts, sondern auch links andocken, und in manchen Situationen merkt sich iOS sogar, in welchem Modus eine App zuletzt angezeigt wurde. Erhält man z. B. eine Nachricht in iMessages und doppeltippt die Benachrichtigung, öffnet sich die Nachrichten-App zunächst als Überblendung, und man muss den Kontext der aktuellen App nicht verlassen.

Das Starten von Multitasking hat sich jedoch in iOS 11 gegenüber früheren Versionen stark verändert. Man beginnt es als VoiceOver-Anwender jetzt folgendermaßen:

  1. Man befindet sich in einer Vollbild-App, mit dem iPad im Querformat. Nehmen wir z. B. an, es handelt sich um Mail.
  2. Möchte man nun z. B. in Safari etwas nachschauen, kann man den VoiceOver-Fokus irgendwo in Mail abstellen. Man streicht nun mit zwei Fingern leicht vom unteren Bildschirmrand. Es erfolgt ein Ton wie ein etwas künstlich klingender Windstoß.
  3. Jetzt befindet sich Mail immer noch im Vordergrund, aber es wurde das neue Dock eingeblendet. Dies zeigt unter iOS 11 links die favorisierten Anwendungen und rechts als Vorschläge die drei zuletzt geöffneten Anwendungen. Nehmen wir an, Safari befindet sich in den favorisierten Anwendungen. Diese kann man jetzt antippen und mit Hilfe des Aktionsrotors aussuchen, ob Safari als Überblendung, rechts befestigt oder links befestigt gestartet werden soll.
  4. Wählt man Überblendung, wird Safari im iPhone-Format rechts eingeblendet, und Mail befindet sich weiterhin im Hintergrund.
  5. Eine der anderen Optionen befestigt Safari rechts oder links am Bildschirm, und die Apps teilen sich selbigen als zwei nebeneinander laufende Apps.

Im Gegensatz zu früheren iOS-Versionen kann man auch im Modus „Überblendung“ die im Hintergrund befindliche App weiter verwenden.

Ist eine App im Überblendungs-Modus geöffnet, hat sich auch die Art, wie man sie größer bekommt oder wieder schließt, geändert. Bei den anderen Varianten ist alles wie gewohnt mit dem „Trennbalken“ zwischen den beiden Apps. Um eine überblendete App zu einer befestigten zu machen oder zu schließen, muss man in der Miniatur-Statuszeile oberhalb der App das „Safari Steuerelement“ finden. Am besten auf ein Statussymbol tippen und dorthin wischen, wenn ihr Schwierigkeiten habt, das kleine Element direkt mit dem Finger anzusteuern. Hier gibt es jetzt auch wieder die verschiedenen Aktionen zum Erweitern von Safari, Schließen, oder befestigen. Es ist also wichtig, hier immer mit den Rotoraktionen zu arbeiten.

Je nach Programmierung der beteiligten Apps stehen manche Modi eventuell nicht zur Verfügung. So kann es sein, dass manche Apps nur als gleichwertig geteilte App, nicht aber im Modus 70-30 befestigt werden können, andere wiederum unterstützen auf dem iPad eventuell den Modus „Überblenden“ nicht. Die verfügbaren Rotoraktionen geben darüber Auskunft.

Ziehen und ablegen (Drag and Drop)

Eine wesentliche Neuerung in iOS 11 ist, dass innerhalb einer App oder zwischen Apps Objekte hin und her gezogen werden können. So kann man z. B. einen Mail-Anhang in eine in der Nachrichten-Überblendung angezeigte Unterhaltung ziehen. Oder man zieht einen Link aus Safari in die Notizen-App, oder ein Bild aus der Fotos-App in eine Mail, wo sie dann gleich zu einem Anhang wird. Weitere Apps werden bei oder nach Erscheinen von iOS 11 mit Sicherheit eigene Verwendungsmöglichkeiten für Drag And Drop präsentieren. Achtet also unbedingt auf die Release-Notes der Apps.

Auch das Ziehen mehrerer Objekte gleichzeitig ist möglich. So kann man auch mehrere Fotos oder Mailanhänge gleichzeitig in eine andere App ziehen. Apple sagt dazu, dass die Anzahl ziehbarer Objekte nur durch das begrenzt wird, was ein Mensch mit seinen Fingern allein imstande ist zu ziehen.

Um mit VoiceOver Objekte zu ziehen, geht man folgendermaßen vor:

  1. Die beiden beteiligten Apps irgendwie sich einen Bildschirm teilen lassen (siehe oben).
  2. Das zu ziehende Objekt antippen.
  3. Kann es gezogen werden, gibt es im Aktions-Rotor eine Option „Objekt ziehen“. Diese mit rauf oder runter wischen auswählen und dann doppeltippen.
  4. Jetzt in die Ziel-App tippen, z. B. bei Nachrichten oder Mail ins Textfeld für die Nachricht.
  5. Wieder den Aktionsrotor verwenden, VoiceOver sagt so etwas wie „loslassen jetzt möglich“. Die Aktion Loslassen wählen und doppeltippen. An dieser Stelle kann alternativ auch das Ziehen abgebrochen werden, wenn man es sich anders überlegt hat.
  6. Hat man Loslassen gewählt, wird das Objekt jetzt hierher gezogen. Es wird dann ein Anhang erzeugt, ein Link in eine Notiz eingefügt, oder was auch immer der App-Ersteller vorgesehen hat, was mit unterstützten Objekten passiert.

Zieht man ein Objekt innerhalb einer App, was zusätzlich zum iPad auch auf dem iPhone funktioniert, entfällt natürlich Schritt 1, der Rest ist aber analog.

Will man mehrere Objekte ziehen, kann man dies nach Schritt 3 analog mit weiteren Objekten angeben. Die Rotoraktion heißt dann „Zum Ziehen hinzufügen“. Die Zielaktion heißt dann entsprechend „2 Objekte loslassen“, oder wie viele man auch immer vorher zu der Ziehen-Aktion hinzugefügt hat.

Für Entwickler

Die Aktionen für das Vergrößern oder Verkleinern einer App sind bereits verfügbar, wenn eure app ganz normal Split Screen, Slide Over usw. unterstützt. Ihr braucht dafür nichts weiter zu tun.

Auch viele Standardkomponenten unterstützen Drag And Drop automatisch, inklusive VoiceOver-Support, so dass nichts weiter getan werden muss. Gibt es doch mal Probleme, muss wahrscheinlich die Klasse UIAccessibilityLocationDescriptor implementiert werden.

Fazit

Die Erweiterungen für die Produktivität auf dem iPad in iOS 11 sind ein ordentlicher Sprung vorwärts. Dadurch, dass auch mehrere Objekte gleichzeitig gezogen werden können, kann man hier eine ordentliche Produktivitätssteigerung erhalten, auch als Nutzer der Bedienungshilfen wie VoiceOver. Das Dock mit seinen Erweiterungen macht so noch viel mehr Sinn, vor allem wenn es immer die gleichen Apps sind, die man z. B. zusätzlich zu der im Vordergrund befindlichen App verwenden möchte.

Und dass man als Blinder auf dem iPad erstmals überhaupt in der Lage ist, zwei Apps echt parallel zu nutzen, was für Sehende auf dem Desktop ja schon seit frühen Windows- und Mac-Zeiten selbstverständlich ist, kann auch nicht oft genug betont werden.

Ich freue mich jedenfalls auf weitere produktive Stunden mit dem iPad! 🙂

Der Beitrag Multitasking und Drag And Drop mit VoiceOver erschien zuerst auf Marco Zehe EDV-Beratung.

Neuerungen für VoiceOver in TVOS 11

$
0
0

Neben iOS und WatchOS hat Apple am 19.09.2017 auch TVOS aktualisiert. Dieses enthält gravierende Neuerungen für Anwender der Bedienungshilfe VoiceOver.

Die Steuerung von VoiceOver auf der Fernsehbox hat sich mit TVOS 11 komplett geändert. War in der früheren Version das Steuern von VoiceOver der Benutzung der Fernbedienung durch Sehende nachempfunden, hat Apple die Bedienung in der neuen Version dem sonstigen Modell weitgehend angeglichen. Lediglich das Drücken der Touch-Fläche entspricht dem Doppeltipp von sonstigen iOS-Geräten. Ansonsten entsprechen die Touch-Gesten jetzt denen von iOS.

  • Nach rechts und links wischen wählt das nächste oder vorherige Element aus.
  • Das Wischen nach oben und unten wählt das vorherige bzw. nächste Element nach Rotoreinstellung aus.
  • Das Drehen mit zwei Fingern wählt die nächste (nach rechts) und vorherige (nach links) Rotoreinheit.
  • Tippen mit zwei Fingern unterbricht die Sprachausgabe.

Weitere Gesten können in der VoiceOver-Hilfe in den Einstellungen/Bedienungshilfen/VoiceOver nachgeschlagen werden.

Es ist jetzt also endlich möglich, sich die Schreibweise von Dingen genau anzuhören, analog zu iOS. Auch hat man mit VoiceOver jetzt explizit Zugriff auf die Beschreibungen bzw. weiteren Texte zu einem Element. Sie werden nicht mehr einfach nur vorgelesen und sind dann „verschwunden“ und nicht mehr aufrufbar.

Leider gibt es immer noch keine weiteren deutschsprachigen Stimmen für TVOS, man muss also immer noch mit der Anna in der Standard- bzw. Kompaktvariante Vorlieb nehmen.

Ein Hinweis noch für die Remote-App im Kontrollzentrum von iOS: Ich habe festgestellt, dass das Menü nicht auf geht, mit dem man beim ersten Aufruf das zu kontrollierende Apple TV auswählen soll. Schaltet man VoiceOver aus, kann ein Sehender diese Einstellung problemlos vornehmen. Der Fehler ist an Apple gemeldet.

Die Angleichung der VoiceOver-Bedienung ist absolut zu begrüßen und trägt zu einer deutlich spürbaren Vereinheitlichung des Bedienkonzepts bei.

Der Beitrag Neuerungen für VoiceOver in TVOS 11 erschien zuerst auf Marco Zehe EDV-Beratung.

In eigener Sache: Änderungen am Blog

$
0
0

In den letzten Tagen habe ich einige Veränderungen an meinen Blogs vorgenommen. Da sich auch für euch als Lesende einige Änderungen ergeben und diese auch für andere Bloggende interessant sein können, habe ich sie mal zusammengefasst.

Einleitung

Die Motivation war, wie bei vielen anderen Webprojekten zur Zeit auch, die im Mai 2018 EU-weit in Kraft tretende Datenschutzgrundverordnung (DSGVO). Diese nehme ich zum Anlass, die Blogs zu verschlanken und einige bisherige Plugins durch neue, den Datenschutz deutlicher berücksichtigende, zu ersetzen. Als Inspiration diente mir unter anderem auch dieser Beitrag von Gino Cremer, von dem ich einige Vorschläge übernahm.

Spambekämpfung

Erster Kandidat zum Wechsel war Akismet, das bisher hier zur Spambekämpfung lief, aber einige Datenschutzprobleme aufwirft. Dieses habe ich durch Antispam Bee des Pluginkollektivs ersetzt. Dieses kommt schon standardmäßig mit sehr guten und datenschutzkonformen Einstellungen daher.

Es erlaubt darüber hinaus eine bessere Kontrolle, was mit Spam, der aus verschiedenen Gründen als Spam klassifiziert wurde, passieren soll. Das schont unter anderem die Datenbank, wenn man nur das aufbewahren muss, was nicht eh eindeutig als Spam erkannt wurde, aber dennoch welcher ist. Ich empfehle bei Einsatz unbedingt einen Blick in die Dokumentation, in der gut erklärt wird, wie welche Optionen zusammenhängen.

Teilen auf Social media

Eine Änderung, die schon vor längerem erfolgte, die ich aber hier der Vollständigkeit halber mit aufführe, ist das Ersetzen der Teilen-Funktionen von Jetpack durch den Shariff Wrapper. Dies sind datenschutzkonforme Teilen-Buttons, die auch noch weitere Dienste zur Verfügung stellen als es das Jetpack-Modul vermochte. Man kann z. B. Posts auf dem handy auch per Threema teilen, und seit diesem Wochenende auch auf dem alternativen Sozialen Netzwerk Mastodon.

Automatisches Veröffentlichen neuer Posts

Zum automatisierten Veröffentlichen auf Twitter (und bis vor wenigen Wochen Facebook) kam bisher ebenfalls ein Jetpack-Modul zum Einsatz. Dieses wurde durch XYZ WP Social Media Auto Publish ersetzt. Dieses erlaubt auch noch wesentlich bessere Kontrollen zur Art der Veröffentlichung auf Twitter und anderen sozialen Netzwerken wie LinkedIn, Tumblr o. ä. Es gibt auch eine freie Version für einzelne Soziale Netzwerke, die erlauben jedoch weniger Kontrollen und sind mit einem Branding versehen.

Für das Veröffentlichen auf Mastodon kommt seit kurzem Mastodon WordPress Autopost zum Einsatz.

Für die verwandten Artikel

Auch diese Jetpack-Funktion wurde durch ein unabhängiges Plugin ersetzt, nämlich Related Posts von iLen. Dieses erlaubt einige hübsche Einstellungen, um die Posts auch tatsächlich relevant zum Inhalt des ursprünglichen Beitrags zu halten.

Statistik und SEO

Auch die Statistik- und SEO-Funktionen wurden erneuert. Das Statistik-Modul von Jetpack wurde ebenfalls ersetzt, nämlich durch Statify vom Pluginkollektiv. Die Statistiken entsprechen mehr dem, was ich tatsächlich benötige und sind viel leichtgewichtiger. Klar geht mir dadurch die Historie der Jahre verloren, aber ich schaue da eh selten rein, welcher Post wie oft über die Jahre aufgerufen wird. Kurzfristige Statistiken sind da spannender.

Bei den SEO-Funktionen kam die letzten zwei Jahre das Yoast SEO, teilweise zur Probe auch in der Premium-Version, zum Einsatz, hat aber eher genervt und das Backend unglaublich verlangsamt. Durch einen Tipp vom xwolf stieß ich dann auf WP SEO. Das kostet einmalig was, für mehr als ein Blog 59,95€, ist aber ein echtes Leichtgewicht und super vorkonfiguriert. Einzige Änderung, die ich vornahm, war, eine sitemap XML-Datei erstellen zu lassen.

Weggefallene Funktionen

Die obigen Änderungen führten dazu, dass im Jetpack im Grunde nur noch zwei Module aktiv waren, nämlich die aufgeblähte Kommentarfunktion und die Likes auf wordpress.com. Ich beschloss, dass ihr und ich auf diese Funktionen auch verzichten können und habe Jetpack daher dann komplett deinstalliert. Und auf einmal war das gesamte Blog dreimal so schnell. 😉

Ihr könnt jetzt also nicht mehr per Twitter, FB, o. ä. Felder für einen Kommentar vorausfüllen lassen, sondern müsst dies wieder wie zu guten alten Zeiten händisch machen. Sorry! 😉 Und Likes von Beiträgen auf WordPress gehen auch nicht mehr, aber nach meiner Erfahrung spielen die eh keine große Rolle, die Reichweite wird sich bei diesem eh etwas spezialisierten Blog daher nicht groß verringern.

Ich selbst muss weiterhin auf einige Backend-Funktionen wie das Nutzen der WordPress-App und so etwas wie automatische Plugin-Updates verzichten. Das ist aber in Anbetracht der Vorteile sehr verschmerzbar. Vom handy gebloggt habe ich eh nie.

Fazit

Durch diese Änderungen sind meine Blogs insgesamt sehr viel schneller geworden. Sowohl das Laden von Beiträgen als auch das Arbeiten im Admin-Bereich laufen deutlich flüssiger. Gerade das Deinstallieren des Jetpack-Plugins hat, trotz fast aller deaktivierter Module, einen unglaublichen Geschwindigkeitsgewinn gebracht.

Natürlich erhebt diese Liste keinen Anspruch auf Vollständigkeit. Gino hat in seinem oben verlinkten Artikel einige Funktionen genannt, die ich nie benutzt habe, z. B. das Laden von Bildern über ein CDN. Ich habe so wenig Bilder auf meinen Blogs, dass das für mich schlicht und einfach zu vernachlässigen ist.

Auch habe ich nie das Bloggen per Mail genutzt. Ich schreibe meine Blogbeiträge per Ulysses auf dem Mac oder iPad. Einen Ersatz für diese Funktionen habe ich daher nicht einmal gesucht. Es gibt aber auch Ersatzplugins hierfür, wie z. B. Postie.

Ich hoffe, ihr freut euch ebenso wie ich über das leichtgewichtigere Blog! Ich wünsche weiterhin viel Spaß beim Lesen und Stöbern!

Test des ElBraille

$
0
0

In den letzten Tagen habe ich die Chance gehabt, das ElBraille der Elita Group einem Test zu unterziehen. Hier ist mein Testbericht.

Was ist das ElBraille?

Das ElBraille ist ein PC. Seine Besonderheit ist, dass es nur mit einer passenden Braillezeile vollständig funktionsfähig wird. Diese Braillezeile ist entweder eine Focus 14 Blue oder eine Focus 40 Blue der 4. Generation von Freedom Scientific. Auf diesem PC läuft Windows 10 Home Edition in der 32-Bit-Variante. Als Screen Reader kommt, passend zur Focus-Zeile, JAWS zum Einsatz.

Die Hardwareausstattung ist eher dürftig: Ein Intel® Atom™ x5-Z8300, Quad-Core, 1.84 GHz-Prozessor, 2 GB RAM, 160 GB Flash-Speicher, der ungünstigerweise in zwei Teile gesplittet ist, nämlich einen fest verbauten 32-GB-Speicher und eine als entfernbar markierte SSD mit 128 GB. Letztere fungiert als Laufwerk D: und enthält standardmäßig den Benutzerordner. Aber Betriebssystem und alle Programme gehen in die geringen 32 GB des C:-Laufwerks.

Die Docking Station verfügt über einen Mini-HDMI-Anschluss, eine USB-3.0-Buchse und einen MicroSIM-Karten-Slot für das eingebaute LTE-Modem. Weiterhin befinden sich eingebaute Stereo-Lautsprecher, ein Mikrofon, ein SD-Karten-Slot für Karten bis zu 256 GB und eine 3,5-mm-Kopfhörerbuchse im Gerät.

Ich bekam zum Testen, passend zu der Focus 14 Blue, die ich seit 2013 besitze, eine Docking Station für die 14er Zeile. Im Gegensatz zur 40er, die fest mit dem Gerät verbunden werden muss, ist die 14er jederzeit abdockbar.

Allgemeines

Das mir von der IPD leihweise zur Verfügung gestellte Gerät kam bereits mit dem neuesten Update von JAWS 2018 vorinstalliert. Alles lief auf deutsch. Die Windows-Version war auf dem Stand des Juli 2016, also eine inzwischen recht alte Windows-10-Version, es gibt seitdem drei neuere größere Updates des Betriebssystems. Installiert waren neben Windows und JAWS auch Firefox, ElNotes (eine App für schriftliche und Sprachnotizen), sowie Miranda NG, ein zugänglicher Instant-Messaging-Client für diverse Protokolle.

Man braucht eine eigene JAWS-Lizenz oder muss sie mit dem Gerät zusammen erwerben, wenn man JAWS nutzen möchte. Eine Home-Lizenz sollte ausreichen, diese Angabe ist aber ohne Gewähr.

Das installierte Windows hat als Basis eine englische Version und ist mit einem sogenannten Language Experience Pack eingedeutscht worden. Das wurde in dem Moment wichtig, als ich versuchte, das Windows per USB-Stick auf die Version 1803 zu aktualisieren. Die deutsche Version, die ich zuerst installieren wollte, hätte mir fast alles geplättet, wenn ich nicht aufgepasst hätte. Mit der englischen Version lief es dann aber durch, und das Experience Pack wurde auch entsprechend aktualisiert. Man merkt die Eindeutschung auch fast gar nicht, lediglich einige Vorschläge von Cortana für so Dinge wie Systemsteuerungs-Abteilungen tauchen manchmal in englisch auf anstatt in deutsch. Der Grund, weswegen ich das Update über einen USB-Stick durchführte und nicht per Windows Update liegt in den 32 GB des C:-Laufwerks begründet. Windows Update hat schlicht und einfach nicht genug Platz, um das Update durchzuführen.

Laufverhalten

Trotz der schwachen Hardware lief das Gerät bei mir im Test zumeist ganz ordentlich. Wurden die Webseiten aber etwas komplexer, kamen JAWS und der verwendete Browser recht schnell ins Stocken. Dies betraf nicht nur Firefox, sondern auch den Internet Explorer und Microsoft Edge. Gerade so Seiten wie Twitter machen damit wahrlich keinen Spaß.

Auch dauert es ewig, bis Word o. ä. geöffnet werden. Sobald man sich aber in einer App befindet und nicht zu viel verlangt, läuft es zügig. Man sollte jedoch davon absehen, eine Sprachausgabe mit hoher Qualität nutzen zu wollen und sich lieber mit der Eloquence begnügen. Die Verzögerungen zwischen Tastendrücken und der Antwort der Sprachausgabe werden auf Dauer doch eher nervig.

BrailleIn und Bedienung des Geräts

Wer JAWS-Nutzer ist und sich mit BrailleIn vertraut gemacht hat, weil an einem anderen PC diese oder eine andere Focus-Zeile zum Einsatz kommt, ist hier klar im Vorteil. Als langjähriger NVDA-Nutzer habe ich erst einmal einiges lesen und einige Tastenkombinationen verinnerlichen müssen, um die wichtigsten Dinge per Brailletasten erledigen zu können. Selbst so etwas gängiges wie Alt+F4 ist hier erst einmal mit einem Lernfaktor verbunden. BrailleIn gibt es seit JAWS 12 oder 13, und beschreibt eine extensive Bedienung und Texteingabe per Braillezeile. Per Tastenfolgen werden alle möglichen Tastenkombinationen ermöglicht, die sonst nur auf normalen Tastaturen möglich sind. Etwas vergleichbares gibt es bei NVDA im Zusammenspiel mit der Focus nicht. Das einzige, was da ein paar Dinge nachrüstet, ist das Add-On Extended Braille.

Und hier kommen wir auch schon zum ganz großen Problem, nämlich der Texteingabe. Ich weiß nicht warum, aber irgendwie kann das fast keiner im Deutschen gut. JAWS und NVDA verwenden Liblouis, und die Kurzschrifteingabe ist schlicht und einfach nicht zu gebrauchen. Einfache Wörter wie „du“, „Einfuhr“ und im Grunde jedes andere Wort, das Buchstaben enthält, die auch Einleitungs- oder Nachsilben sind, wird bis zur Unkenntlichkeit verunstaltet. Jeder Buchstabe wird immer als Kürzung interpretiert, und man verbringt im Nachhinein Ewigkeiten damit, den Text zu korrigieren. Und in Computer-Braille Text einzugeben ist ebenso eine Zumutung, und ich bekomme nach kurzer Zeit Krämpfe in den Händen wegen der Notwendigkeit, Großbuchstaben mit dem kleinen Finger auf Punkt 7 erzeugen zu müssen.

In der deutschen Version von JAWS gibt es noch ein weiteres Kurzschriftmodul, das sogenannte regelbasierte Modul. Jenes ist standardmäßig allerdings nicht voreingestellt. Wenn man nicht weiß, dass es das gibt, denkt man schnell, dass das in der deutschen Kurzschrift einfach nichts taugt. Man muss zum Einschalten der regelbasierten Übersetzung in die Einstellungsverwaltung gehen und in den Experteneinstellungen die Übersetzungseinheit auf Regelbasiert umstellen. Dann kann man entweder durch die Eingabe von Punkten 1-2-4-5-7 Chord zweimal die Kurzschrift für Eingabe aktivieren, wenn man sich in einem Eingabefeld befindet, oder man stellt die Übersetzung einmal unter Braille/Allgemein ein. Achtung: Erst die Ausgabe von Computer-Braille auf Kurzschrift umstellen, erst dann kann man die Eingabe auch auf Kurzschrift einstellen. Wahlweise kann man hier dann noch das Anzeigen von Großbuchstaben unterdrücken. Das bezieht sich dann aber nur auf die Ausgabe. Wenn man Großbuchstaben schreiben will, muss man sie weiterhin mit den Punkten 4-6 ankündigen. Eine automatische Erkennung für Nomen oder Satzanfänge, bei denen einem diese Arbeit abgenommen würde, gibt es nicht. In einem Schnelltest erwies sich diese Kurzschriftübersetzung als robuster als die von Liblouis, wobei sie anscheinend mit einem nicht mehr ganz aktuellen Regelwerk der deutschen Blindenkurzschrift arbeitet.

Und mit der regelbasierten Übersetzung stellt sich ein weiteres Problem: Sie spricht nur deutsch. Dazu weiter unten noch mehr.

Es ist also nicht so, dass es im Deutschen keine gut funktionierende Alternative gäbe. Die Kurzschriftrückübersetzung von RTFC von Wolfgang Hubert z. B. funktioniert ziemlich bis sehr gut, und das sogar mehrsprachig. Aber anscheinend ist die deutschsprachige Braille-Gemeinde in eine Art erweiterten Winterschlaf gefallen oder so, jedenfalls gibt es, nach dem, was ich so höre, kein Auf-Die-Barrikaden-Gehen gegen diese Zumutung einer Kurzschriftrückübersetzung im teuersten Screen Reader auf dem Markt. Wenigstens die sinnvollere Einstellung der regelbasierten Übersetzung hätte ich im Deutschen schon erwartet und nicht, erst in die Tiefen der Einstellungsverwaltung hinabsteigen zu müssen.

Aber JAWS steht mit dem Problem nicht allein da. Auch die Kurzschrifteingabe in iOS ist grottenschlecht, wie ich Apple seit Jahren begreiflich zu machen versuche. Die nutzen etwas proprietäres, aber mit ähnlichen Kinderkrankheiten. Selbst die Betas von iOS 12 zeigen bisher keine Besserung.

Laut Auskunft von Herrn Jaklin von IPD und auch Aleksander Pavkovic durch einen Kommentar weiter unten steckt RTFC in einigen oder allen Notizgeräten von HIMS, also dem Polaris und den älteren U2-Geräten. Auch nutzt HTCom von Help Tech (früher Handy Tech) für die Kurzschriftübersetzung den Motor von RTFC. Offenbar geht es also, RTFC für Hilfsmittel zu lizensieren. In Anbetracht der Mehrsprachigkeit wäre das im Deutschen für JAWS also grundsätzlich auch eine bessere Alternative.

Mehrsprachigkeit

Ich bin einer von denen, der mehrmals am Tag spontan zwischen dem Schreiben deutscher und englischer Texte umschalten muss. In JAWS ist der Weg dorthin sehr lang, und er funktioniert, wie oben bereits angedeutet, nur mit Liblouis, also der nicht zu gebrauchenden deutschen Kurzschrift. Man muss:

  • Das Einstellungs-Center öffnen.
  • Die Standardkonfiguration laden.
  • „übersetz“ ins Suchfeld eingeben.
  • Die Sprache von deutsch auf englisch oder umgekehrt umschalten.
  • Von Computer-Braille in Kurzschrift umschalten, und zwar Ausgabe zuerst, bevor man auch die Eingabe umschalten kann.
  • Das Dialogfeld schließen.

Klar, das kann man bestimmt irgendwie skripten. Aber seit ich nicht mehr bei Freedom Scientific arbeite, meine Krankheit in 2007 eingerechnet sind das inzwischen 11,5 Jahre, habe ich kein JAWS-Skript mehr angefasst und so ziemlich alles vergessen, so dass ich mir die Mühe nicht gemacht habe. Verkompliziert wird’s eben dadurch, dass man für sinnvolle deutsche Kurzschrift auch das ganze Übersetzungsmodul umschalten muss. Englisch einzugeben funktioniert mit Liblouis jedenfalls wesentlich besser als deutsch. Gerade wenn man Unified English Braille verwendet, klappt es wirklich sehr ordentlich.

Aber für mehrsprachige Benutzer wie mich sollte das ElBraille definitiv eine Schnellumschaltung bereitstellen, die man einmal konfiguriert (Erst- und Zweitsprache) und dann immer schnell umschalten kann. Aber das macht natürlich nur Sinn, wenn, wie in meinem Fall, auch beide Sprachen ordentlich funktionieren würden und diese Umschaltung auch die Umschaltung des ganzen Moduls ermöglichte. Jetzt, wo ich dieses Update schreibe, denke ich, dass dies für JAWS eh eine sinnvolle Erweiterung der Funktionalität wäre, denn die Brailleeingabe funktioniert ja mit jeder Focus-Zeile an jedem PC, nicht nur dem ElBraille.

Fazit

Die Idee des ElBraille an sich ist klasse. Ein kleiner und gar nicht zu schwerer Computer mit einem vollen Windows 10, Office, Skype und was man sonst noch so braucht, ohne störenden Bildschirm und mit einer Batterielaufzeit von vom Hersteller angegebenen bis 20 Stunden sind durchaus sehr attraktiv. Allerdings ist für den Preis die Hardware viel zu schwach. In Deutschland schlägt die Docking Station allein mit etwa 1800€ zu Buche. Dazu kommt die Braillezeile, wenn noch nicht vorhanden, und natürlich eine JAWS-Lizenz. Auf Wunsch kann man natürlich auch NVDA installieren, aber ohne selbst den Funktionsumfang noch erheblich zu erweitern, dürfte das nicht so viel Spaß machen.

Allerdings ist das Killer-Kriterium für mich wirklich die absolut unbrauchbare oder umständliche Eingabemöglichkeit in mehreren Sprachen gewesen, das mich das Gerät gestern hat zurückgeben lassen. So ein Gerät würde für mich wirklich nur Sinn machen, wenn diese grundsätzliche Funktion im Deutschen JAWS funktionieren würde.

In den USA und Kanada tritt Freedom Scientific als Haupthändler für diese Geräte auf. Jonathan Mosen hat dazu sogar eine eigene Episode des FSCast veröffentlicht und wird nicht müde, das ElBraille bei jeder Gelegenheit zu erwähnen. Freedom Scientific steht zumindest im englischen also ziemlich hinter diesem Gerät. Der Rest der Welt kauft direkt bei Elita Group, natürlich über entsprechende Hilfsmittelhändler wie z. B. Die IPD. Wenn Freedom Scientific auch international diese Art mobilen Computings unterstützen würde, müssten sie dafür sorgen, dass in anderen Sprachen die Brailleeingabe auch ordentlich funktioniert. Aber ein großes Interesse scheint hieran anscheinend nicht zu bestehen, sonst wären nicht inzwischen sieben JAWS-Versionen mit diesem Mangel für den deutschsprachigen Raum erschienen. Schade eigentlich.

Disclaimer

Ich habe von 1996 bis 2007 bei Freedom Scientific bzw. deren Vorläufer Omni PC gearbeitet und war stark an den Entwicklungen und Übersetzungen von JAWS 1.22 bis JAWS 8.0 beteiligt. Seit ich dort nicht mehr arbeite, bin ich lediglich zahlender Kunde mit einer Lizenz für meinen Arbeitsplatz und Anwender einer Focus-Braillezeile. BrailleIn und andere hier beschriebene Features entstanden lange nach meiner Zeit bei Freedom Scientific, und meine Kritik ist die eines zahlenden Kunden.

Viewing all 108 articles
Browse latest View live