Celem jest poprawa rozpoznawania głosu w społecznościach z niepełnosprawnościami i różnych wzorcach mowy, często nieuwzględnianych przez algorytmy sztucznej inteligencji.

University of Illinois współpracuje z Amazon, Apple, Google, Meta, Microsoft i organizacjami non-profit w ramach projektu Speech Accessibility Project. Celem jest poprawa rozpoznawania głosu w społecznościach z niepełnosprawnościami i różnych wzorcach mowy, często nieuwzględnianych przez algorytmy sztucznej inteligencji. Dotyczy to osób z chorobą Lou Gehriga (ALS), chorobą Parkinsona, porażeniem mózgowym, zespołem Downa i innymi chorobami wpływającymi na mowę.

Giganci technologiczni wspierają niepełnosprawnych

Interfejsy mowy powinny być dostępne dla wszystkich, w tym dla osób niepełnosprawnych. To zadanie było trudne, ponieważ wymaga dużej infrastruktury, najlepiej takiej, którą mogą wspierać wiodące firmy technologiczne. To dlatego stworzyliśmy wyjątkowo interdyscyplinarny zespół z doświadczeniem w zakresie lingwistyki, mowy, sztucznej inteligencji, bezpieczeństwa i prywatności - powiedział profesor UIUC Mark Hasegawa-Johnson.

Projekt The Speech Accessibility Project zgromadzi próbki od osób reprezentujących różne wzorce mowy. UIUC będzie rekrutować opłacanych wolontariuszy, aby dostarczali próbki głosu i pomagali stworzyć „prywatny, pozbawiony identyfikacji" zestaw danych, który można wykorzystać do trenowania modeli uczenia maszynowego. Na początku grupa skupi się na amerykańskim angielskim.

Fundacja Davisa Phinneya (Parkinson) i Team Gleason (ALS) zobowiązały się do wsparcia projektu.

Choroba Parkinsona wpływa na objawy motoryczne, utrudniając pisanie, więc rozpoznawanie mowy jest kluczowym narzędziem komunikacji i ekspresji. Część naszego zobowiązania obejmuje zapewnienie osobom z chorobą Parkinsona dostępu do narzędzi, technologii i zasobów potrzebnych do najlepszego życia - powiedziała dyrektor wykonawcza Fundacji Davisa Phinneya, Polly Dawkins.