PR

通常、Webサイトをアクセシブルにすることに関連した内容を述べさせていただいている本連載だが、今回は少し趣向を変えて、あるイベントについて少し触れてみたいと思う。

そのイベントとは、先月3月19日から24日にかけて米国カリフォルニア州ロサンゼルスにて開催された、アクセシビリティ関連のイベントでは世界でも最大級のものとされる「CONFERENCE 2007 Technology & Persons with Disabilities Conference」である。
その規模の大きさ故、日本からも毎年かなりの人数が参加している同イベントではあるが、Webアクセシビリティだけのイベントではないことや、障害者に関連する技術に重点を置いた内容となっていることから、日本国内ではあまり一般的な認知度は高くないのではないだろうか。
しかしながら、Webアクセシビリティを意識していく上においても重要な最新技術が集まる場であり、興味深い内容も発表、展示されている。その内容について簡単に紹介していきたい。

イベントの概要

さて、はじめに少しイベントの概要を述べておくことにしよう。正式名称は上記のとおりなのだが、通常主催であるカリフォルニア州立大学ノースリッジ校(California State University, Northridge)の略称であるCSUN(シーサン)と呼ばれることが多いようだ。
対象となる参加者は非常に幅広く、障害者やその家族、支援技術メーカーなどはもちろんのこと、大学教授や研究者、さらに法務担当者、人事担当者など非常に多岐に渡り、その中には筆者のようなWebアクセシビリティに関連する業務に従事しているものも当然含まれている。
そのことは、21日から24日の本会議日程中に開催されたプレゼンテーションのセッションが275以上、展示ブースが175以上と発表されていたことからもよくわかるであろう。

本年度の特徴

4日間で275のセッションがあるということは、かなりのセッションが同じ時間に開催されてしまうことになる。すべてのセッションに参加するのは難しかったので、今回は特にWebアクセシビリティに関連する部分の内容を中心に紹介していきたい。

Windows Vistaへの対応

先日、Microsoft社の新しいOSであるWindows Vistaが発売されたことはまだ記憶に新しいのではないだろうか。スクリーン・リーダーや画面拡大ソフトをはじめとする支援技術メーカーのセッション、展示においては、やはりこの新OSへの対応を前面に押し出しているところが目立った。
かつては(ものによっては現在も)支援技術が新しい技術に対応するまでにはかなり長い時間を要することが多かった。しかしながら、今回のWindows Vistaへの対応に関しては、参加していた各社とも新機能への対応などを積極的にアピールしていたようだ。

RIA(Rich Internet Application)への対応

Webアクセシビリティを実現する上で、現在最も難しいもののひとつであると考えられているのが、このRIAであろう。昨今のWeb技術の進化に伴い、FlashやAjaxを利用したリッチなアプリケーションはWebコンテンツを構成する重要な要素となってきている。RIAがアクセシブルではない理由のひとつとして、必要なデータを支援技術に送ることができていないということがあるわけだが、この問題点に対する試みとして、新たな規格を制定するという動きがある。現在W3Cで草案として公開されている「Roadmap for Accessible Rich Internet Applications (WAI-ARIA Roadmap)」だ。この草案に対応するアプリケーションもいくつかのセッションに登場していた。もちろん、まだ草案段階であり、すぐにアクセシブルになっていくというわけではないにせよ、リッチかつアクセシブルなWebが実現できる可能性が見えてきている、といってもよいのではないだろうか。

注目のセッション

最後に筆者が注目したセッションを紹介として今回のまとめとしたい。そのセッションとは、Google社の発表だ。同社の発表者によれば、今回Google社は初めての参加とのことで、そのことからもアクセシビリティに力を入れ始めていることが伺える。今回行われた2つのセッションのうち、特にAudio CAPTCHA at Googleというセッションがなかなか興味深いものであった。
CAPTCHA、およびAudio CAPTCHAという言葉が耳慣れない、という方のために簡単に説明させていただくと、CAPTCHAとはCompletely Automated Public Turing test to tell Computers and Humans Apartの略で、つまりコンピュータか人間かの区別をおこなう自動化されたテスト、ということになる。アカウント取得や、オンラインショッピング、ブログへのコメント記入時などに入力を求められる変形した文字の画像、というと見たことがある人も多いのではないだろうか。あれもCAPTCHAのひとつである。

さて、通常CAPTCHAというと、この画像によるものが一般的だ。しかしながら、画像によるCAPTCHAにはアクセシビリティ上の重大な欠陥がある。音声読み上げや点字環境では文字を読み取ることができないのだ。そこで、最近では音声によるCAPTCHAの、Audio CAPTCHAとして、Googleのアカウント取得時などに併用されはじめた。
前置きが長くなってしまったが、今回参加したセッションではこのAudio CAPTCHAが改良されてきた経緯が紹介された。当然のことではあるが、伝達する内容はできるだけ機械にはわかりにくく、人間にはわかりやすくなっている必要がある。コンピュータの理解を妨げるための背景音に何を選択するか、ということが改良の主なポイントであった。
発表では、現在の形になるまでのいくつかのバージョンが紹介されたのだが、ここではひとつだけ興味深かったものを取り上げてみたい。それは背景音として中国語の会話を流す、という方法だ。人間の会話を背景音とすることは、コンピュータにわかりにくくするためには有効ということで、なかなかの効果があったとのことだが、残念ながらこれには欠点があったという。中国語を理解できる人には背景音が理解できてしまうのだ。これでは人間にとっても前景音、つまり聞き取るべき内容が把握しにくく、理解しにくい状態になってしまう。この点を克服すべく、現在はさらに改良されたものが採用されているそうである。

ということで、非常に簡単ではあるが、注目のセッションのひとつとして、Googleの発表を紹介した。なお、この画像、音声によるCAPTCHAの併用だが、これだけではまだ完全とはいえない。例えば、点字環境のみでアクセスした場合には、やはりどうすることもできないからだ。もちろん、このことはGoogleの発表者も認識していて、今後の検討事項であるとしていたし、将来的には解決策が出てくることが望まれる。

以上、今回はCSUNというイベントを筆者の視点からご紹介させていただいた。本イベントはWebサイト上のリソースがあまり多くないことが非常に残念なのだが、この点も将来的には改善されていくことを期待したいものだ。