2025년 접근성 동향: Google I/O와 WWDC 핵심 내용 살펴보기
2025년 접근성 동향: Google I/O와 WWDC 핵심 내용 살펴보기 (1부: Google I/O 2025)
안녕하세요, 엔비전스입니다.
올해도 어김없이 Google I/O와 Apple의 WWDC를 통해 디지털 접근성의 미래를 엿볼 수 있는 새로운 기술들이 대거 공개되었습니다. 따라서 어떤 접근성 업데이트가 이루어졌는지 살펴보겠습니다. 1부에서는 Google I/O 2025의 주요 내용을 다루겠습니다.
Google I/O 2025는 두 가지 핵심 전략을 통해 접근성의 중대한 전환점을 보여주었습니다. 첫째, Android 16의 중요 업데이트를 통해 안드로이드 플랫폼 자체의 기초 접근성을 강화하는 것입니다. 둘째, 기존 접근성에 대한 AI 기반의 새로운 기능을 통합하는 것입니다.
Gemini의 통합은 거의 모든 주요 발표의 핵심 줄기였으며, 차세대 접근성 기능의 기본 엔진으로 자리매김했습니다.
1. Android 16: 시스템 전반의 접근성 향상
Android 16은 운영체제 수준에서 통합된 다양한 접근성 기능을 도입하여 모든 사용자를 위한 더 강력하고 포용적인 기반을 마련했습니다. 이러한 플랫폼 전반의 개선 사항은 시각 및 감각 접근성의 중요한 영역을 다루며, 개별 앱 구현에 의존하지 않는 기본 사용성을 보장합니다.
시각적 선명도를 위한 새로운 기반: 외곽선 텍스트와 향상된 다크 테마
Android 16은 전체 사용자 인터페이스에서 시각적 가독성과 편안함을 개선하기 위한 두 가지 주요 업데이트를 제공합니다.
첫째, 플랫폼은 이전의 '고대비 텍스트' 기능을 정교하게 대체하는 외곽선 텍스트(Outline Text)를 도입했습니다. 이 새로운 기능은 문자 주위에 얇고 대비가 강한 외곽선을 그려, 복잡하거나 대비가 낮은 배경에서도 원본 텍스트 색상을 변경하지 않고도 문자가 돋보이게 하여 가독성을 크게 향상시킵니다.
둘째, Android 16은 시스템 설정에서 "더 많은 앱을 어둡게"라고 불리는 향상된 다크 테마(Enhanced Dark Theme)를 통해 오랜 사용자 불편을 해결합니다. 이 기능은 다크 테마를 기본적으로 지원하지 않는 애플리케이션에 지능적으로 다크 테마를 강제 적용합니다. 단순히 색상을 반전시키는 것이 아니라, 앱의 UI를 분석하여 요소 색상을 선택적으로 변경함으로써 더 심미적이고 사용하기 좋은 다크 모드를 생성합니다.
감각적 요구 해결: 모션 큐 도입
움직이는 차량 안에서 기기를 사용할 때 많은 사람이 겪는 멀미 문제를 해결하기 위해, Android 16은 모션 큐(Motion Cues)라는 새로운 접근성 기능을 도입할 예정입니다. 이 기능은 차량의 가속, 회전, 제동에 맞춰 화면 가장자리에 움직이는 애니메이션 점들을 표시합니다. 이는 내이가 움직임을 느끼는 것과 눈이 정적인 화면을 보는 것 사이의 감각적 불일치로 인한 메스꺼움을 줄이는 것을 목표로 합니다.
이 기능은 iOS 18에 도입된 "차량 모션 큐"와 유사하지만, 안드로이드 구현은 '운전 시 자동 활성화' 옵션과 같이 더 진보된 사용자 맞춤 설정을 제공하는 것으로 보입니다. 또한, 이 기능은 핵심 OS가 아닌 Google Play 서비스를 통해 구축되고 있어, 구글이 더 많은 구형 안드로이드 기기에도 이 중요한 건강 및 접근성 기능을 더 빠르고 광범위하게 배포할 수 있음을 시사합니다.
청각 경험 개선: LE 오디오 및 보청기 제어
Android 16은 Bluetooth LE 오디오(저에너지 오디오) 표준을 지원하는 기기를 사용하는 보청기 사용자들을 위해 상당한 개선을 이루었습니다. 이러한 업데이트는 단순한 오디오 스트리밍을 넘어 더 깊이 통합된 기기 관리 경험을 제공합니다.
가장 중요한 새로운 기능은 통화 중 마이크 입력을 보청기의 내장 마이크에서 휴대폰의 마이크로 전환할 수 있게 하는 것입니다. 이는 시끄러운 환경에서 휴대폰의 고급 소음 제거 기능이 상대방에게 훨씬 더 선명한 음성을 전달할 수 있어 매우 유용합니다.
또한, Android 16은 LE 오디오 보청기를 위한 주변 소리 볼륨 조절 기능을 도입했습니다. 이를 통해 사용자는 보청기 마이크가 포착하는 환경 소리의 볼륨을 휴대폰 인터페이스에서 직접 조절할 수 있습니다.
2. 핵심 접근성 서비스의 발전
시스템 수준의 변경 외에도, Google I/O 2025에서는 안드로이드 접근성 도구 모음의 대표적인 애플리케이션들에 대한 중요한 업데이트가 공개되었습니다. 이러한 서비스는 많은 장애인 사용자가 기기와 상호작용하는 주요 인터페이스이며, 최신 개선 사항은 더 지능적이고 상황 인식적인 지원을 제공하기 위해 AI를 깊이 통합했습니다.
TalkBack 16.0: Gemini 기반 인식 및 향상된 탐색
가장 실질적인 업데이트는 구글의 Gemini AI를 통합하여 그 기능을 근본적으로 변화시킨 TalkBack 16.0의 출시였습니다.
Gemini 기반 이미지 및 화면 설명
TalkBack 16.0의 핵심 기능은 시각적 콘텐츠에 대해 풍부한 AI 생성 설명을 제공하는 능력입니다. 새로운 "화면 설명" 작업은 사용자가 현재 보이는 모든 것에 대한 전체적인 설명을 얻을 수 있게 해줍니다. 이는 접근성 구현이 미흡하거나 없는 앱의 레이아웃과 콘텐츠를 이해할 수 있는 기념비적인 기능 향상입니다.
중요한 것은 이 기능이 대화형이라는 점입니다. 초기 설명을 받은 후, 사용자는 음성이나 텍스트로 "드레스 색깔이 뭐야?" 또는 "버튼에 뭐라고 쓰여 있어?"와 같은 구체적인 후속 질문을 하며 Gemini와 대화할 수 있습니다. 이는 수동적인 정보 읽기에서 능동적인 시각 세계 탐험으로 경험을 전환시킵니다.
테이블 탐색 및 기타 개선 사항
TalkBack 16.0은 또한 요청이 많았던 여러 삶의 질 향상 기능을 제공합니다.
테이블 탐색 기능 강화: 스크린리더 사용자에게 오랜 과제였던 복잡한 데이터 표 탐색 기능이 직관적이고 강력하게 개선되었습니다. 이전에는 표의 내용을 셀 단위로 순차적으로만 읽어주어 구조를 파악하기 어려웠지만, 이제 사용자들은 행과 열 단위로 효율적으로 이동할 수 있습니다. 예를 들어, 사용자는 아이폰에서 사용되는 개념인 로터(Rotor) 제스처나 단축키를 사용하여 '행으로 이동' 또는 '열로 이동' 모드를 선택할 수 있습니다. 이 모드에서 위아래나 좌우로 스와이프하면 전체 행이나 열을 건너뛰며 탐색할 수 있습니다. 탐색 시 TalkBack은 현재 포커스가 있는 셀의 행과 열 머리글을 함께 알려주어, 사용자가 데이터의 맥락을 잃지 않고 표의 구조를 명확하게 이해하도록 돕습니다. 이 기능은 금융 보고서, 시간표, 과학 데이터 등 복잡한 표 형식의 정보를 훨씬 쉽게 접근하고 이해할 수 있게 해주는 중요한 발전입니다.
기타 주요 개선 사항:
- 사용자 정의 제스처: 자주 사용하는 기능에 대한 접근성을 높이기 위해, '마지막으로 말한 구문 반복' 및 '마지막으로 말한 구문 철자 말하기' 명령에 사용자가 직접 제스처를 할당할 수 있게 되었습니다.
- 상세한 음성 출력 제어: 사용자가 음성 피드백의 상세 수준을 더 세밀하게 제어할 수 있도록, 반복되는 기호(예: !!!!!)를 그룹으로 묶어 읽을지 여부를 선택하는 새로운 토글 설정이 추가되었습니다.
- 하드웨어 키보드 지원 강화: 물리적 키보드 사용자를 위해 방문했던 링크 사이를 이동하는 새로운 단축키가 추가되었습니다. 또한, TalkBack 명령을 위한 보조 키(modifier key)로 '검색(Search)' 키를 지정할 수 있는 옵션이 생겼습니다.
- 점자 디스플레이 통합 강화: 화면에 잠시 나타났다 사라지는 시스템 메시지(토스트 팝업 등)를 이제 연결된 점자 디스플레이에서 직접 읽을 수 있습니다. 이를 통해 점자 의존 사용자가 중요한 임시 정보를 놓치지 않게 됩니다.
라이브 캡션: 표현력과 길이 인식을 통한 뉘앙스 포착
기기에서 재생되는 모든 오디오에 실시간 캡션을 제공하는 구글의 라이브 캡션 기능 역시 "표현력 있는 캡션(Expressive Captions)" 도입으로 AI 기반의 중요한 업그레이드를 받았습니다. 이 개선 사항은 일반적인 문자 기록에서는 손실되는 말의 감정적 뉘앙스와 운율을 포착하여 전달하는 것을 목표로 합니다.
핵심 구성 요소 중 하나는 새로운 길이(duration) 기능입니다. 화자가 강조를 위해 단어를 길게 발음할 때 이를 인식하고 캡션에 시각적으로 표현합니다. 예를 들어, 강조하는 "아니요"는 "아니요오오오오"로 자막 처리되어 사용자에게 화자의 의도를 더 명확하게 전달합니다.
더 넓은 범위의 도구 모음: 선택하여 말하기 및 기타 서비스 업데이트
TalkBack과 라이브 캡션이 가장 큰 업데이트를 받았지만, 안드로이드 접근성 도구 모음의 다른 구성 요소들도 개선되었습니다. 간헐적인 TTS 지원이 필요한 저시력 사용자를 위한 선택하여 말하기(Select to Speak)는 설정에서 자연스러운 음성 옵션을 도입하여 더 현대적이고 듣기 좋은 음성 엔진을 선택할 수 있게 했습니다.
3. 포용적인 미래를 위한 기반 AI 모델
Google I/O 2025의 핵심 주제 중 하나는 최종 사용자 제품이 아닌 개발자들이 구축할 플랫폼으로 설계된 새로운 기반 AI 모델의 도입이었습니다. 이들 중 일부는 접근성에 직접적이고 심오한 영향을 미치며, 더 유능한 보조 기술을 만드는 데 대한 장기적인 투자를 나타냅니다.
SignGemma: 수화 이해를 위한 전용 모델
개발자 기조연설에서 발표된 SignGemma는 Gemma 제품군 내의 새로운 특수 개방형 모델로, 수화를 음성 언어 텍스트로 번역하도록 명시적으로 훈련되었습니다. 현재 가장 잘 시연된 기능은 미국 수어(ASL)를 영어 텍스트로 번역하는 것입니다. SignGemma를 개방형 모델로 출시함으로써, 구글은 전 세계 개발자 커뮤니티가 청각 장애인 사용자를 위한 새로운 애플리케이션과 도구를 만들도록 장려하는 플랫폼 전략을 추구하고 있습니다.
Project Astra와 실시간 번역이 재정의하는 보조 기술
아마도 가장 광범위한 접근성 영향은 명시적으로 그렇게 마케팅되지 않은 기능들에서 비롯될 것입니다. 구글의 범용 AI 어시스턴트와 실시간 번역 기술의 발전은 보조 기술을 주변 환경에 녹아들게 하고 주류로 만들어 그 지형을 재정의할 것입니다.
Project Astra는 기기의 카메라와 마이크를 통해 세상을 인식하고 실시간으로 맥락을 이해할 수 있는 범용적이고 능동적인 AI 어시스턴트에 대한 구글의 비전입니다. 사용자 대면 구현은 Gemini Live라고 불립니다. 기능적으로 이것은 구글 렌즈(Google Lens)나 Lookout과 같은 특수 접근성 앱의 기술적, 개념적 후계자입니다. 시각 장애가 있는 사용자에게 Gemini Live는 강력한 시각적 통역사 역할을 할 수 있습니다.
또한, 구글은 실시간 음성 대 음성 번역에서 놀라운 진전을 보여주었습니다. 이 기술은 단순한 기록 및 번역을 넘어, AI가 원화자의 어조, 운율, 표현을 번역된 오디오 출력에 보존하여 상호작용을 더 자연스럽고 인간적으로 만듭니다. 이는 다국어 회의에서 청각 장애가 있는 사용자에게 고품질의 실시간 번역 캡션을 제공함으로써 의사소통 장벽을 허물 수 있는 매우 강력한 접근성 도구입니다.
4. 개발자를 위한 주요 변경점: 선언적 접근성으로의 전환
Google I/O 2025는 개발자들이 최신 안드로이드에서 접근성 높은 애플리케이션을 구축하는 방식을 근본적으로 바꾸는 중요한 API 변경 사항을 발표했습니다. 핵심은 개발자가 직접 스크린리더의 음성을 제어하는 '명령형' 방식에서 벗어나, UI 요소의 의미와 상태를 시스템에 '선언'하고 보조 기술이 이를 해석하도록 하는 방식으로의 전환입니다.
`announceForAccessibility` 지원 중단과 그 의미
Android 16에서 가장 중요한 변화는 `announceForAccessibility` 메서드의 지원 중단입니다. 이 API는 개발자가 원하는 시점에 스크린리더가 특정 텍스트를 강제로 말하게 하는 강력하지만, 종종 오용되던 도구였습니다.
구글의 관점: 구글은 이 API가 근본적으로 접근성이 낮은 UI 디자인을 위한 '임시방편'으로 사용되는 것을 문제로 보았습니다. 예를 들어, 버튼의 상태가 변경되었을 때, 상태 정보를 올바르게 구현하는 대신 `announceForAccessibility("버튼 꺼짐")`과 같이 직접 음성 출력을 만들어내는 방식은 일관성이 없고 불안정한 사용자 경험을 초래했습니다. 따라서 구글은 개발자들이 새로운 의미론적 API를 사용해 UI의 상태를 시스템에 명확히 설명하도록 유도하고 있습니다.
개발 현장의 목소리: 하지만 이러한 변화에 대한 우려도 존재합니다. `announceForAccessibility`는 화면에 보이지 않는 정보를 사용자에게 알려주는 데 매우 유용하게 사용되어 왔습니다. 예를 들어, 작업 완료 후 잠시 나타났다 사라지는 토스트 메시지나, 데이터 로딩 상태 등을 음성으로 알리는 경우가 대표적입니다. 새로운 선언적 방식만으로는 이러한 동적이고 비시각적인 정보를 전달하기 어려울 수 있다는 아쉬움이 남습니다. 또한, 이미 수많은 앱이 이 API에 의존하고 있어, 모든 코드를 새로운 방식으로 전환하는 데 상당한 시간과 노력이 필요할 것입니다.
새롭게 도입된 의미론적 API
`announceForAccessibility`를 대체하고 더 풍부한 접근성 경험을 제공하기 위해 다음과 같은 새로운 API들이 `AccessibilityNodeInfo`에 추가되었습니다.
- `setExpandedState`: 메뉴나 아코디언 같은 UI 요소가 '펼쳐진 상태'인지 '접힌 상태'인지를 시스템에 명시적으로 알릴 수 있습니다.
- `setFieldRequired`: 입력 양식에서 특정 필드가 '필수 항목'임을 프로그래밍 방식으로 지정할 수 있어, 보조 기술이 사용자에게 이를 명확히 안내할 수 있습니다.
- `addLabeledBy` / `getLabeledByList`: 하나의 UI 요소에 여러 개의 레이블(설명)을 연결할 수 있게 됩니다. 이는 복잡한 UI의 접근성을 높이는 데 매우 유용합니다.
- `setChecked(int)`: 기존의 참/거짓 방식 대신, 체크박스가 '선택됨', '선택 안 됨', '부분 선택됨'의 세 가지 상태를 가질 수 있도록 지원합니다.
- `setSupplementalDescription`: UI 요소 그룹(예: 드롭다운 메뉴) 전체에 대해 자식 요소들의 접근성 정보를 덮어쓰지 않으면서 추가적인 설명을 제공할 수 있습니다.
- `TtsSpan`의 `TYPE_DURATION`: "1시간 30분" 같은 시간 정보를 TTS 엔진이 "일 삼 영"처럼 숫자로 읽는 대신 "한 시간 삼십 분"과 같이 자연스럽게 읽도록 의미를 부여합니다.
이러한 변화는 개발자들이 더 견고하고 예측 가능한 접근성을 구현하도록 장려하지만, 동시에 새로운 학습 곡선과 마이그레이션 부담을 안겨주는 양면성을 가지고 있습니다.
5. 종합 및 전략적 분석
Google I/O 2025의 발표들을 종합적으로 보면, 디지털 접근성을 발전시키기 위한 정교하고 다층적인 전략이 드러납니다. 이 전략은 인공지능의 깊은 통합, 기초 플랫폼 기능 강화에 대한 약속, 그리고 더 포용적인 개발자 생태계에 대한 명확한 비전으로 정의됩니다.
AI의 통합적 역할: 접근성을 위한 안전망
가장 중요한 접근성 발표들을 연결하는 공통된 실은 AI를 주요 기능이자 중요한 안전망으로 전략적으로 배포하는 것입니다. 이 접근 방식은 'AI 안전망'이라고 할 수 있는 것을 만듭니다. 이미지가 개발자가 제공한 대체 텍스트가 없을 때 Gemini가 이를 설명할 수 있고, 앱에 기본 다크 테마가 없을 때 운영체제가 지능적으로 하나를 만들어낼 수 있습니다. 이는 수백만 명의 개발자가 레거시 애플리케이션을 업데이트하기를 기다릴 필요 없이, 장애를 가진 사람들이 현재의 디지털 세계를 더 유용하게 만들 수 있는 즉각적이고 실용적인 이점을 가집니다.
향후 혁신을 위한 과제와 기회
상당한 진전에도 불구하고, 아쉬운 부분도 있습니다. AI 기반 패러다임에서 발생하는 주요 과제는 신뢰성 및 AI '환각' 가능성 문제입니다. 또한, 시각 및 청각 장애 사용자를 위한 획기적인 업데이트가 있었지만, 운동 장애 관련 접근성에 대한 주요 발표가 부족했다는 점도 아쉬움 중 하나입니다. Switch Access나 Voice Access와 같은 핵심 서비스는 눈에 띄게 다뤄지지 않았으며, 이는 향후 I/O 이벤트에서 중요한 기회 영역이 될 것입니다.
이번 Google I/O에서 다룬 내용은 여기까지이며, 다음에 더 좋은 내용으로 찾아뵐 수 있도록 노력하겠습니다.
감사합니다.