Wywiad: Wdrażanie lepszej dostępności w oprogramowaniu i witrynach internetowych

cyberfeed.pl 2 miesięcy temu


A graficzny interfejs użytkownika (GUI) to sposób, w jaki wiele osób wchodzi w interakcję z urządzeniami komputerowymi, od telefonów i telewizorów smart TV po laptopy, komputery stacjonarne i nawigację w witrynach internetowych. Chociaż inteligentne głośniki i takie aplikacje jak Siri na urządzeniach z systemem iOS dały ludziom alternatywny interfejs użytkownika, w którym mogą żądać informacji i wykonywać ograniczony zakres zadań dzięki głosu, używanie głosu generowanego komputerowo jest obecne od dziesięcioleci, uruchamiając oprogramowanie do odczytu ekranu dla osób niewidomych i niedowidzących.

Oprócz swojej codziennej pracy, Suleyman Gokyigit, dyrektor ds. informatyki w Fireamerykańska organizacja broniąca praw do wolności słowa, spędza część swojego czasu w testowaniu dostępności systemu i stron internetowych dla firmy Applause zajmującej się testowaniem społecznościowym. Computer Weekly niedawno rozmawiał z Gokyigitem o niektórych obszarach, które programiści systemu i projektanci stron internetowych muszą wziąć pod uwagę, aby zapewnić większą dostępność.

Jedną z usług świadczonych przez Applause jest możliwość sprawdzenia przez firmy, które opracowują nowe oprogramowanie lub strony internetowe, czy spełniają one zasady projektowania wymagane dla dostępności. „Nawet jeżeli nie jest to funkcja dostępności, firmy chcą mieć pewność, iż osoba niewidoma może korzystać z systemu lub odwiedzać stronę internetową” — mówi Gokyigit.

Jego praca w Applause polega na testowaniu i wykonywaniu serii zadań na stronach internetowych lub w oprogramowaniu dzięki czytnika ekranu. Jego działania są rejestrowane. „Może to być coś takiego jak wejście na stronę internetową, zalogowanie się, a następnie utworzenie nowego zamówienia. Przez cały czas udzielam informacji zwrotnej, co pozwala tym firmom zrozumieć”, mówi.

Dostępność, przeszłość i teraźniejszość

Osoba korzystająca z czytnika ekranu nie używa myszy. „Oprogramowanie i strony internetowe nie powinny być projektowane w taki sposób, aby trzeba było w coś kliknąć myszką” — mówi Gokyigit. „Musisz móc używać klawiatury, aby się poruszać, a powinny istnieć sposoby na zapewnienie całej funkcjonalności dzięki klawiatury”.

Omawiając swoją osobistą podróż z dostępnością w oprogramowaniu, Gokyigit, który jest całkowicie niewidomy, mówi, iż technologia bardzo się zmieniła na przestrzeni lat. Używa systemu do odczytu ekranu. Kiedy był w szkole podstawowej, Gokyigit używał Apple 2, a dostępne oprogramowanie do ułatwień dostępu było programem, który zapewniał zgodność z zaledwie kilkoma bardzo specyficznymi aplikacjami. „Robił naprawdę podstawowe rzeczy, takie jak pisanie. Tak nauczyłem się pisać” — mówi.



Kiedy w 1991 roku, mając 12 lat, zaczął używać komputerów PC, Gokyigit używał programu o nazwie JAWS (Job Access With Speech), czytnika ekranu dla systemu operacyjnego MS-DOS. Jednak ponieważ system operacyjny komputera PC zapewniał jedynie interfejs użytkownika wiersza poleceń, czytanie ekranu było prostsze niż graficzny interfejs użytkownika nowoczesnych systemów operacyjnych używanych na komputerach PC, Mac i telefonach oraz aplikacjach na nich zbudowanych.

W przypadku systemu Windows 3.0 Microsoft zbudował GUI na bazie MS-DOS, ale jak wspomina Gokyigit, z perspektywy dostępności „na początku było to całkowicie bezużyteczne”. Przejście z interfejsu użytkownika opartego w 100% na tekście na reprezentację graficzną doprowadziło do zerowej dostępności. Nie było to wówczas priorytetem, dodaje. Oznaczało to, iż aplikacje obsługujące dostępność były wydawane dwa do trzech lat po wydaniu oprogramowania. „Zaczęliśmy być w stanie korzystać z systemu dwa do trzech lat po wszystkich innych, ponieważ uczynienie rzeczy dostępnymi wymagało czasu”, mówi.

Prawie trzy i pół dekady później dostępność systemu znacznie się poprawiła, ale przez cały czas istnieją obszary, w których można wprowadzić ulepszenia. „Celem w oprogramowaniu powinno być zawsze umożliwienie dostępności natychmiast po wydaniu. Nie powinno być niczego szczególnego, co osoba niewidoma lub z jakąkolwiek niepełnosprawnością musiałaby zrobić, aby jej oprogramowanie działało” — mówi Gokyigit.

Choć toporne, sprzętowe syntezatory mowy z przeszłości zostały zastąpione programowymi syntezatorami głosu brzmiącymi bardziej naturalnie, a nowoczesne systemy operacyjne oferują niesamowity poziom ułatwień dostępu, przez cały czas istnieje pole do poprawy.

„Nie można choćby porównywać tego, gdzie byliśmy 30 lat temu, jeżeli chodzi o dostępność, z tym, co jest teraz” — mówi Gokyigit. „Wiele zmian zostało spowodowanych przez technologię, ale twórcy systemu i firmy, dla których pracują, są teraz bardziej świadomi dostępności. Istnieje bardzo duża baza użytkowników korzystających z takich rzeczy, jak czytniki ekranu”.

Programiści muszą wziąć pod uwagę, iż osoba korzystająca z czytnika ekranu nie używa myszy, dlatego Gokyigit namawia programistów, aby zastanowili się, w jaki sposób wdrażają nawigację dzięki klawiatury. „Oprogramowanie i strony internetowe nie powinny być projektowane w taki sposób, iż trzeba w coś kliknąć myszką” — mówi. „Musisz móc używać klawiatury, aby się poruszać i mieć dostęp do pełnej funkcjonalności”.

Patrząc na strony internetowe, dodaje: „Wszystkie elementy nietekstowe powinny być opisane. Ale do dziś możesz odwiedzić wiele stron internetowych, na których jest napisane, iż masz nieoznaczony przycisk lub obraz graficzny. Oznacza to, iż nie ma opisu, a mimo to jest to coś, co zajmie tylko kilka sekund”.

Rola sztucznej inteligencji w dostępności

Sztuczna inteligencja (AI) ma potencjał odczytywania ekranu komputera i rozumienia, co użytkownik próbuje osiągnąć.

Patrząc na potencjał AI w zakresie poprawy dostępności, Gokyigit mówi: „To byłoby niesamowite, ale jeszcze tam nie jesteśmy. w tej chwili AI jest bardzo pomocna w takich czynnościach, jak opisy. Możliwość opisania tego, co jest na ekranie, a choćby po prostu zrobienia zdjęcia i poproszenia AI o opisanie obrazu, do niedawna nie było praktyczne, ponieważ powodowało halucynacje”. Innymi słowy, AI gubiło się i przedstawiało nieprawidłowy opis obrazu. Opisy były również bardzo krótkie. „Teraz możesz otrzymywać akapity i akapity opisów, które są bardzo szczegółowe i bardzo dokładne, więc mogę dziś poprosić AI o opisanie tego, co jest na ekranie” — dodaje.

Ale w oprogramowaniu przez cały czas są luki. Opisując niedawną sytuację, Gokyigit mówi: „Chciałem utworzyć nowy folder współdzielony na moim podłączonym do sieci urządzeniu pamięci masowej, aby uwzględnić go w naszej kopii zapasowej, ale interfejs administratora był niedostępny”. Podczas gdy czytnik ekranu poinformował go, iż musi kliknąć pole wyboru, Gokyigit nie mógł go znaleźć.

„Mogłem stwierdzić, iż foldery zostały zaznaczone, ale w przypadku nowego folderu próbowałem wszystkiego, od klikania na niego, próbowania losowych kliknięć trochę w lewo i trochę w prawo, mając nadzieję, iż trafię na pole wyboru, którego czytnik ekranu nie wykrył”. Ale nic, co próbował, nie działało. „Ostatecznie musiałem sprowadzić kogoś, kto widział, iż jest pole wyboru i kliknął je. Niesamowite byłoby, gdyby AI poszła dalej i kliknęła pole wyboru za mnie”.

Dostępność oznacza użyteczność dla wszystkich

Gokyigit uważa, iż ​​wyzwania związane z użytecznością systemu wykraczają poza dostosowanie systemu do potrzeb osób niepełnosprawnych.

„Możliwość prowadzenia rzeczywistej rozmowy lub kontrolowania komputera poprzez mówienie do niego ma wiele sensu” – mówi. „Spójrz na stare programy science fiction, takie jak Star Trek„Nawet w latach 60., a na pewno w latach 80., ludzie wiedzieli, iż najbardziej naturalnym interfejsem użytkownika jest po prostu rozmowa z maszyną i powiedzenie jej, czego od niej oczekujemy”.



Source link

Idź do oryginalnego materiału