AI와 함께하는 디지털 접근성
안녕하세요, 엔비전스입니다.
오늘은 접근성과 관련하여 공유하고 싶은 아티클이 있어 번역을 해 보여 드리려고 합니다.
이 아래부터는 번역글로, 원문은 이쪽에서 확인하실 수 있습니다.
골디락스 존: AI 시대에서의 접근 가능한 디지털 미래를 실현하기
인공지능(AI)을 활용하여 접근성 장벽을 허무는 것은 단지 동화 속 이야기일까요? AI는 아무것도 해결하지 못할까요? 아니면 모든 것을 해결할까요? 아니면 인간의 지능과 윤리가 더해진 AI가 체계적인 접근성을 위한 진정한 해결책이 될 수 있을까요?
우리는 업계 차원에서 20년 넘게 디지털 접근성을 현실로 만들기 위해 노력해 왔습니다. 하지만 아직 충분한 진전을 이루지 못했습니다. 1999년부터 시도해 왔던 방식으로 디지털 접근성 문제를 해결하려고 한다면 결코 성공할 수 없을 것입니다.
하지만 아직 모든 것을 잃은 것은 아닙니다!
많은 리스크와 기회 속에서 디지털 접근성 분야에서 AI를 윤리적으로 사용할 수 있는 골디락스 존이 존재합니다.
우리가 걸어온 길
20년 넘게 디지털 평등이라는 목표를 위해 노력해 왔지만, 시각, 청각, 소근육 운동, 언어 또는 인지 장애가 있는 사람들은 여전히 대부분의 웹사이트에 접근할 수 없습니다. WebAIM Million 2023 보고서에 따르면 인터넷 홈페이지의 약 96.3%가 모든 접근성 지침을 충족하지 못하는 것으로 나타났습니다. 이는 분명히 받아들이기 어려운 수치이며, 디지털 접근성을 현실로 만들기 위해 새롭고 더 효율적인 방법을 찾지 못한다면 앞으로도 큰 진전을 이루기 어려울 것입니다.
우리가 서 있는 자리
생성형 AI(GenAI)는 우리가 좋든 싫든 이미 현실이 되었습니다. 업계는 수수방관하며 무슨 일이 일어나는지 지켜볼 여유가 없습니다. 소프트웨어를 설계하고 개발할 때 접근성을 나중에 고려해서는 안 되는 것처럼, GenAI의 필수적인 부분으로 만들어야 합니다. 그렇지 않으면 디지털 장벽이 생겨나는 속도가 지금보다 10배나 빨라질 것입니다. 소프트웨어 개발 속도가 그만큼 빨라질 것으로 예상되기 때문입니다.
우리가 나아갈 길
생성형 AI(GenAI)는 새로운 콘텐츠를 만드는 데 중점을 둔 AI의 하위 집합입니다. 이러한 새로운 콘텐츠는 텍스트, 음성, 이미지, 비디오, 음악, 소프트웨어 코드 등이 될 수 있습니다. Gartner는 GenAI를 "GenAI는 기존 아티팩트에서 학습하여 학습 데이터의 특징을 반영하지만 반복하지 않는 새롭고 사실적인 아티팩트를 (대규모로) 생성할 수 있습니다."라고 정의합니다. GenAI는 이미 새로운 예술 작품 제작, 신약 개발, 소프트웨어 코드 초안 작성 등 유용하고 독창적인 콘텐츠를 만들어내고 있습니다.
이러한 형태의 AI는 인공지능이 만든 콘텐츠와 인간이 만든 콘텐츠의 경계에 흥미로운 가능성과 질문을 제기합니다. 또한 윤리적인 의미, 책임감 있는 사용 등 신중한 고려가 필요합니다. GenAI를 좀 더 자세히 살펴보겠습니다!
생성형 AI와 접근성
GenAI, 특히 대규모 언어 모델(LLM)은 그 어느 때보다 역동적이고, 맥락에 맞게 접근성 문제를 해결할 수 있는 특별한 기회를 제공합니다. GenAI가 접근성을 지원할 수 있는 몇 가지 방법은 다음과 같습니다.
접근 가능한 대체 텍스트 생성
과거에는 대체 텍스트가 모든 경우에 적용되는 일률적인 솔루션이었기 때문에 의미 있는 맥락을 제공하지 못하는 경우가 많았습니다. GenAI는 웹 페이지에서 이미지의 맥락을 고려하여 맞춤형 대체 텍스트를 생성함으로써 이러한 문제를 혁신적으로 개선할 수 있습니다. 예를 들어, LLM은 이미지의 주제, 구성, 맥락에 초점을 맞춰 대체 텍스트에 무엇이 필요한지 이해하도록 프롬프트할 수 있습니다. AI를 사용하기에 논란의 여지가 있을 수 있는 부분이지만 엄청난 잠재력을 가지고 있습니다.
시각 보조 강화
또 다른 유용한 애플리케이션으로 GPT-4 기반의 Be My Eyes 앱인 Be My AI가 있습니다. 이 앱은 사용자에게 카메라에 포착된 시각적 요소에 대한 자세한 정보를 제공하여 시각 장애인의 독립성을 높여줍니다. 사용자는 물체에 카메라를 향하게 하여 포괄적인 설명을 들을 수 있으므로 주변 환경을 더 쉽게 탐색할 수 있습니다. 시각 장애인이 Be My AI를 사용하여 접근하기 어려운 디지털 인터페이스를 지원하는 사례가 있습니다.
자동화된 접근성 지원
Deque에서는 Deque University의 방대한 접근성 지식을 기반으로 학습된 선구적인 접근성 챗봇인 axe Assistant를 지원하기 위해 GenAI를 활용하고 있습니다. axe Assistant는 연중무휴 24시간 지원을 제공하여 접근성 관련 질문에 즉각적으로 답변해 줍니다. 양식 레이블 및 대체 텍스트와 같은 접근 가능한 구성 요소에 대한 HTML을 생성하고 다양한 접근성 사례에 대한 지침을 제공할 수 있습니다.
준비 방법
접근성은 올해도, 그리고 앞으로도 결코 AI의 관중석에 머물러서는 안 됩니다. 우리는 이 새로운 컴퓨팅 물결을 받아들여야 합니다.
Future Today Institute의 CEO인 Amy Webb은 지난해 SXSW에서 ADM(Act Decide Monitor) 도구를 Creative Commons 라이선스로 공유했습니다. 이 도구는 우리가 AI 시대에 행동을 우선시하는 데 도움을 줍니다.
우리는 Amy Webb의 ADM 도구를 접근성 산업의 AI에 적용하여 접근성이 AI의 필수 요소가 되도록 해야 합니다. 이는 AI가 디지털 장벽을 만드는 속도보다 빠르게 해결할 방법을 발견하는 데 도움을 줄 수 있습니다.
행동: 접근성에 이전에 없던 즉각적인 이점을 제공해야 합니다. 즉각 행동하지 않으면 위험이 커질 것입니다. 결정: 단기적인 기회나 위험이 있을 때 결정을 내려야 합니다. 변곡점이 임박했으며, 새로운 위협이나 위험이 다가오고 있습니다. 이는 A11Y에 의미 있는 영향을 줄 수 있습니다. 감시: 장기적인 기회나 위험을 지속적으로 감시해야 합니다. 단기적인 재정, 운영, 규제와 관련된 위험 또는 기회가 있을 수 있으며, 이는 연쇄적으로 A11Y에 영향을 미칠 수 있습니다. 새로운 A11Y 위험을 초래할 가능성도 있습니다.
이러한 개념들은 AI와 디지털 접근성의 발전과 관련된 기회와 위험을 효과적으로 관리하기 위한 전략입니다.
오늘날 디지털 접근성을 위해 AI가 할 수 있는 일
제한된 AI(시스템이 단일 작업을 수행하도록 설계된 경우)는 렌더링된 디지털 UI와 기본 코드(사용 가능한 경우)를 "살펴보고" 다음을 포함한 접근성 문제를 정확하게 가려내는 방법을 학습할 수 있습니다. 다음은 AI가 식별할 수 있는 접근성 문제의 예입니다:
- 테이블 셀이 열 또는 행 헤더로 작동하지만 테이블 헤더로 표시되지 않는 경우
- 버튼이 키보드로 작동하지 않는 경우
- 색상 대비를 충족하지 않는 이미지에 포함된 텍스트
AI는 이러한 문제들을 자동으로 감지하고 보고할 수 있으며, 필요한 경우 인간 검토를 요청할 수 있습니다.
AI 속도로 테스트하기
AI를 신뢰하려면 시간이 더 필요할 수도 있습니다. 하지만 디지털 콘텐츠(새 웹 페이지, 새 앱 화면)가 생성되는 속도를 고려해 봤을 때, 인간 전문가가 수동으로만 접근성 테스트를 해야 한다고 고집하게 되면 우리는 패배할 것입니다.
새 페이지와 화면에 대한 테스트 요구 사항을 충족할 수 있다 하더라도 개발자와 콘텐츠 기여자가 콘텐츠를 얼마나 자주 업데이트하는지도 고려해야 합니다. 자격을 갖춘 전문가가 수동으로 접근성 테스트를 실시했을 때의 정확도는 해당 페이지나 화면이 업데이트되기 전까지만 유효합니다.
물론 하지만 아직 모든 것을 잃은 것은 아닙니다!
우리는 이런 제한된 인적 자원을 보완하기 위해 AI를 현명하게 사용할 수 있습니다. 디지털 접근성 테스트에서 AI를 사용하지 않는 것은 무책임한 일입니다.
예를 들어, 테스트 프로세스를 단계별로 작성하고 6학년 교육을 받은 사람에게 올바르게 판별하도록 가르칠 수 있습니다. 많은 데이터가 AI 결정 모델을 훈련하고 테스트하는 데 사용될 수 있습니다. 우리는 AI 접근성 테스트 결과의 정확성을 감사하는 데에 집중할 수 있고, 만약 AI 테스트 결과가 정확성 허용 수준 이하인 경우 수동 접근성 테스트를 수행할 수 있습니다.
AI의 위험성(세 마리 곰)
디지털 접근성에서 AI를 사용할 때는 이 새로운 기술의 실제 위험을 고려하고 완화해야 합니다. 권장 접근법은 다각적이며 기술과 윤리적 프레임워크에 의존합니다. 먼저 AI의 세 가지 위험(일명 세 마리 곰)과 이러한 위험에 대처하기 위해 우리가 할 수 있는 일을 살펴보겠습니다.
1. AI의 비윤리적 사용
AI의 비윤리적 사용으로부터 보호하려면 각 조직에 AI 거버넌스가 있어야 합니다. 이는 AI의 사용을 정의하는 명확한 지침과 정책을 만드는 것을 포함합니다 인간이 AI 결정의 정확성을 사실 확인할 수 있는 능력을 유지할 수 있도록 AI 의사 결정의 이면에 있는 메커니즘을 이해하는 등 우리가 사용하는 AI에 대한 투명성을 확보해야 합니다. 또한 개발자, 콘텐츠 기고자 및 모든 직원이 사용하는 AI 데이터와 해당 데이터를 사용하여 내린 조치 및 결정에 대한 책임을 져야 합니다. 책임감 있는 문화를 조성해야 합니다.
예를 들어 많은 차량 운전자가 차선을 변경할 때 적절한 차선을 유지하고 충돌을 피하는 것과 같은 중요한 일을 할 수 있도록 AI를 사용합니다. 다만 운전자가 안전을 위해 AI를 사용하더라도 여전히 차량을 올바른 차선에 유지하고 다른 차량이나 물체에 부딪히지 않도록 해야 할 직접적인 책임을 가지고 있는 것과 같습니다.
2. AI의 편향
AI의 편향은 일반적으로 AI 학습 데이터의 역사적 편향으로 인해 발생합니다. 즉, "편향된 데이터 입력"은 "편향된 데이터(및 결정) 출력"으로 이어집니다. AI의 잘못된 편향의 예로는 불법적으로 보호 대상 집단을 차별하는 구직 지원자 심사 모델, 은행 대출 승인 모델, 밝은 피부색만 사용 학습된 얼굴 인식 모델 등이 있습니다.
실제로 편견과 차별은 우리가 현재 신뢰하는 사람 내면에 숨겨져 있을 수 있습니다. 문제는 AI에서 편견을 식별하는 것이 인간보다 더 쉬울까요? AI를 사용하여 인권을 지속적으로 지지하는 공정하고 윤리적인 결정을 모델링할 수 있을까요?
우리는 AI 데이터와 결과에서 편향을 찾기 위해 항상 경계하고 감시해야 합니다. 편향을 발견하면 보고하고 시정될 때까지 멈추지 말아야 합니다. 데이터가 포괄적이고 기존의 편견을 반복하지 않도록 다양하고 대표적인 데이터 세트를 신중하게 선별하는 것부터 시작할 수 있습니다. 공정성을 인식하는 알고리즘 및 적대적 테스트와 같은 도구와 기술을 사용하여 AI 모델의 편향을 감지, 측정 및 제거할 수 있습니다. 시간이 지남에 따라 편향적인 부분이이 진화할 수 있으므로 지속적인 모니터링과 감사가 이 프로세스의 중요한 부분입니다. AI 분야에서 일하는 다양한 인력과 접근성 전문가와 데이터 과학자 간의 협업을 통해 해로운 편견을 인식하고 대응하는 AI 시스템을 구축할 수 있습니다.
3.AI에 대한 과도한 의존과 과소 의존
디지털 접근성을 발전시키려면 AI에 의존하는 정도의 균형을 맞추는 것이 중요합니다. 비판적 평가 없이 AI 결정을 무조건적으로 신뢰하게 되는 과도한 의존을 피해야 합니다. 다만 동시에 AI를 과소평가하는 것은 체계적으로 디지털 접근성 문제를 해결할 수 있는 기회를 차단하는 것과 같습니다. 이러한 위험을 완화하기 위해 우리는 이 AI 시대에 용감하고 현명하게 발을 내딛어 AI가 인간의 의사 결정을 돕도록 하지만 대체하지는 않는 '인간 중심 루프' 개념을 옹호해야 합니다.
결론적으로 AI는 놀라운 잠재력을 가지고 있지만 이러한 위험을 사전에 인지하고 해결하는 것이 중요합니다. 윤리적 지침, 모니터링, 명확한 책임 소재, 지속적인 교육을 통해 AI를 좋은 방향으로 사용할 수 있습니다. AI 의사 결정 프로세스, 계산된 신뢰 수준, 잠재적인 불확실성 영역에 대한 통찰력을 제공함으로써 우리 인간은 AI를 사용하여 디지털 평등 목표를 달성하는 데 도움을 받으면서도 주도권을 유지할 수 있습니다.
인간 중심 AI
AI를 이론적으로만 논의해서는 충분하지 않습니다. 오늘날 접근성 분야에서 윤리적으로 AI를 사용하는 구체적인 사례를 살펴봐야 합니다. 제가 선택한 사례는 '인간 중심 AI'라고 부르는 것을 수용하는 Deque에서 실제로 AI를 사용하는 사례를 기반으로 합니다.
"인간 중심 AI는 인간의 능력을 대체하기보다는 증폭하고 강화하는 AI 시스템을 만드는 데 목적을 둔 신흥 분야입니다." — 노에 바렐, Deque ML 엔지니어
여기서 노에는 Deque의 접근 방식을 다음과 같이 설명합니다.
"우리의 AI 접근 방식은 솔루션에서 생성된 결과에서 최고의 정확도를 제공하는 동시에 사용자에게 매우 높은 ROI를 제공하기 때문에 인간 중심적입니다. 객체 감지, OCR, 시각적 텍스트 및 배경 렌더링(다른 UI 상태 포함)과 같은 여러 방식으로 AI를 사용합니다. 궁극적으로 인간이 우리의 ML을 무시할 수 있도록 하면서 이를 휴리스틱과 결합합니다. 이를 통해 순수 휴리스틱만으로는 불가능했던 영역을 넘어 제로 오탐(false negative)으로 나아가고, 양질의 결과를 제공할 책임이 있는 사람들에게 복잡한 상황에서 의사 결정을 내릴 수 있는 권한을 부여합니다."
Axe DevTools 지능형 안내 테스트(IGT) 및 AI
Axe DevTools 지능형 안내 테스트(IGT)는 제한적인 AI를 사용합니다. 하지만 axe DevTools는 AI를 사용하기 전에 오픈 소스 axe-core 자동화 규칙을 사용하여 기존 컴퓨팅 방법으로 식별 가능한 기본적인 WCAG 문제를 감지합니다. 그런 다음 axe-core 문제를 보고한 후 axe DevTools는 좁은 AI를 사용하여 다음을 수행합니다.
- 이전에는 인간의 시각 및/또는 분석이 필요했지만 이제는 AI를 사용하여 수행할 수 있는 더 많은 WCAG 문제를 안정적으로 식별합니다. 하단에 있는 내용이 이에 포함됩니다
- 이미지 또는 복잡한 그라데이션 위의 텍스트를 포함한 복잡한 텍스트 색상 대비 문제. axe DevTools는 이러한 복잡한 경우 AI와 텍 스트 및 배경의 시각적 렌더링을 사용하여 색상 대비 값의 범위를 자동으로 계산하고 WCAG 2.x 1.4.3 대비(최소) 문제를 정확하게 보고합니다.
- 대부분의 폼 필드에 대한 유효성 검사. axe DevTools는 Deque의 OCR 모델을 사용하여 매우 높은 수준의 정확도와 신뢰도로 필드와 시각적으로 연결된 텍스트를 생성합니다. 신뢰도가 높지 않은 경우(드물지만) axe DevTools는 사람의 검토를 요청합니다.
- 접근 불가능한 UI 객체 식별 및 정확한 분 류. Deque의 객체 감지 모델은 접근 불가능한 양식, 양식 필드, 양식 필드 레이블, 데이터 테 이블, 데이터 테이블 헤더 및 대화형 요소를 식별할 수 있습니다.
- AI가 WCAG 문제인지 여부를 확신할 수 없는 경우 사용자의 두뇌가 필요하고 시간을 할애할 가치가 있는 집중적인 질문을 합니다.
- Deque에서는 항상 오탐 제로라는 axe-core 선언문을 고수합니다. AI 모델이 겸손하게 행동하고 확신이 서지 않을 때는 사용자의 검토를 요청하도록 학습시켰습니다.
이것이 어떻게 도움이 될까요? 신뢰할 수 있는 axe-core 결과를 얻을 수 있습니다. 또한 기계 학습과 컴퓨터 비전을 사용해 더 정확한 자동 검사를 수행할 수 있습니다. 접근성 테스트를 더 빠르게 수행할 수 있고, 가장 중요한 것으로 AI가 학습할 수 없거나 아직 학습하지 못한 항목에 사용자의 두뇌 능력을 집중할 수 있다는 것입니다.
결론: 골디락스 존
천문학에서 유래한 골디락스 존 비유에서 영감을 얻어, 우리 각자는 디지털 접근성을 현실로 만들기 위해 AI를 어떻게 사용할지 선택할 책임이 있습니다. AI가 모든 것을 할 수 있다 낙관하고 합리적인 인간 감사 프로세스를 갖추기 위해 우리의 의무를 다하지 않는다면, 우리는 실패할 수밖에 없습니다. 그렇다고 AI가 모든 것을 완벽하게 할 수 없기 때문에 전혀 사용할 수 없다고 비관적으로만 생각한다면 역시 실패할 수밖에 없습니다. 디지털 공간을 접근 가능하도록 만들고 유지하는 데 필요한 작업량을 따라갈 만큼 충분한 인적 에너지나 전문가가 없기 때문입니다.
실용적인 해결책은 AI가 모든 것을 할 수는 없다는 것을 인식하는 것입니다. 하지만 인간이 윤리적으로 지도할 수만 있다면 AI는 지난 30년 동안 인간의 노력에도 불구하고 해결되지 않았던 접근성 장벽을 허물 수 있고 또 허물 것입니다.
빠르게 진화하는 디지털 시대에 AI와 접근성의 교차점은 매우 중요합니다. AI는 우리에게 놀라운 잠재력과 피할 수 없는 과제를 동시에 제시합니다. 우리는 윤리와 인간 지능을 기반으로 하는 AI가 포괄적이고 공정하며 접근 가능한 디지털 환경을 조성할 수 있는 혁신적인 시대의 바로 그 시작점에 서 있습니다. 업계로서 우리는 용감하고 혁신적이어야 할 것입니다.
디지털 평등을 현실로 만들기 위해 앞으로 도약할 준비가 되셨나요? AI + U = A11Y!