Será que um aplicativo sinal tradução nunca se tornar uma realidade?

Imagine um mundo onde as barreiras entre os surdos e da audição são ido. Um mundo onde as conversas fluem de forma fluida entre aqueles que ouvir o som, e aqueles que não o fazem. Poderia que o mundo se tornar real no futuro próximo?

Em junho, um grupo de estudantes de marketing da Berghs School of Communication desenvolveu um vídeo conceito para um produto fictício chamado Google Gesture. O produto incluído uma pulseira wearable e um aplicativo móvel que utilizou eletromiografia de ler os movimentos musculares de uma pessoa surda fazendo linguagem de sinais. O sistema, então, passou esses sinais para o aplicativo, que se traduziu esses sinais em uma voz digitalizada e iria falar para a pessoa.

Assistindo o vídeo de marketing falso foi muito emocionante. Tão emocionante, de fato, que os principais sites de tecnologia como o Mashable, SlashGear e outros originalmente anunciado o produto como real, e depois teve que contar a reclamação e pedir desculpas por seu erro. Foi um erro estranho, considerando que existe realmente é um produto do Google chamado Google Gesture Search, que permite desenhar gestos em sua tela móvel para procurar contatos, favoritos e muito mais.

Independentemente disso, o conceito dos alunos Berghs apresentou uma ideia notável, levando à pergunta - poderia ser possível criar tal um aplicativo para real?

É traduzir Sign Language possível?

Dissecando o conceito de marketing a nível técnico revela que a tecnologia utilizando a eletromiografia (EMG) para “sentir” a língua de sinais que não é realmente muito buscado em tudo. Já em 2009, pesquisadores da Universidade de Washington foram capazes de utilizar vários sensores de EMG para decodificar os movimentos musculares e convertê-los em braço e da mão gestos reais.

Video: Organização - App Any Do | Bia Jiacomine

Os pesquisadores realmente construído uma “biblioteca de reconhecimento de gestos” completa, identificando quais os sinais musculares representado qual gesto. A pesquisa comprova que este tipo de tecnologia está disponível e pronto para implementar o tipo de aplicação os alunos Berghs imaginado.

Então, ninguém tem realmente conseguido isso ainda? Se não, por que não é qualquer um que faz isso, e fornecendo os surdos e deficientes auditivos com a capacidade de se comunicar com qualquer pessoa no mundo através de linguagem gestual?

O futuro da tecnologia em tempo real Tradução

A verdade é que alguém está de fato trabalhando em tal tecnologia de tradução de linguagem de sinais em tempo real.

sign-LANGUAGE1

Existe uma empresa chamada SpeechTrans, que foi empurrando os limites do tecnologias de tradução nos últimos anos. SpeechTrans trabalha com parceiros de tecnologia para produzir alguns dos mais notáveis ​​serviços de tradução em tempo real no mercado hoje. Estes são os serviços que traduzem chat de texto para texto, chat de voz para texto, e até mesmo em tempo real tradução de voz para voz linguagem por meio de aplicativos de telefone e desktop móveis.3 melhores ferramentas de tradução baseada no Google Translate3 melhores ferramentas de tradução baseada no Google Translateconsulte Mais informação

Para explorar se uma tecnologia de linguagem de sinais pode se tornar realidade no futuro próximo, MakeUseOf sentou-se com CEO SpeechTrans John Frei e COO Yan Auerbach para discutir este inovador novo tecnologia de tradução e quão longe no futuro que poderia ser.

Desenvolver um Sign Language Translation App

MUO: É possível fazer o tipo de linguagem de sinais para tradução discurso que os alunos Berghs retratado neste vídeo conceito Gesto Google?

CEO SpeechTrans - John Frei

John: Eu diria que a tecnologia está disponível para desenvolver isso. Atualmente estamos trabalhando com a Microsoft e Intel em explorar algumas das tecnologias que estão saindo com, em termos de hardware e software. Nós encaramos a capacidade de usar essa tecnologia para reconhecer a linguagem de sinais e, em seguida, convertê-lo em discurso e saída de áudio.

MUO: Você está trabalhando ativamente no desenvolvimento que a tecnologia agora?

Yan: Então, houve um cliente que estava usando nosso software, e pensei que seria maravilhoso se pudéssemos modificá-lo para que as pessoas que estão com deficiência auditiva pode usá-lo para fazer chamadas telefónicas de nosso aplicativo, para se comunicar sem a necessidade de sinal linguagem quando estão em pessoa, ou sem a necessidade de um serviço do tipo TTY para chamadas telefônicas. Desenvolvemos esse produto, e com financiamento da Microsoft e Intel, lançamos SpeechTrans para o deficientes auditivos no Windows 8.1, o que elimina a necessidade de linguagem de sinais.

MUO: Como é que o app “em pessoa” funciona?



Yan: Há um modo de ouvir, e não há um modo de entrada. Então, quando alguém está falando com você, você colocar em modo de escuta e de TI tipos fora tudo o que eles estão dizendo na tela em texto. Então, quando você responder de volta, você digita-la e, em seguida, ele fala em voz alta o que você digita. Com o telefone, você só discar o número de telefone de qualquer pessoa, e quando eles atender o telefone, torna-se como uma mensagem instantânea. O que quer que eles falam, você começa como um IM. Então, o que você tipo é falado em voz alta através do telefone. Essa é a primeira fase.

Near Future Tradução Sign Language

MUO: Que tecnologias as pessoas podem esperar para ver no futuro próximo? Qual é a próxima fase?

John: Nós fazemos enVision - para alguém que só tem a capacidade de usar a linguagem de sinais - para ser capaz de fazer isso na frente de um dispositivo, como um telefone, PC ou laptop. Intel tem um novo sistema de câmera e Microsoft faz tão bem com o Kinect, que faz reconhecimento de gestos.

MUO: Como isso é melhor do que o conceito de faixa de braço estendeu pelos alunos Berghs?

sign-language3

Yan: Basicamente, o nosso está indo trabalhar de uma forma em que ele não exige que você coloque qualquer coisa em seu braço. Ele vai reconhecer 64 pontos em sua mão. Estamos usando a versão beta do câmera RealSense da Intel. Assim, não só seremos capazes de reconhecer toda a linguagem de sinais, e vários dialetos diferentes da língua de sinais, mas também vai ser capaz de reconhecer emoções, expressões faciais, e outros pequenos nuances e depois converter isso em palavras faladas, bem .

Isso não vai exigir que você usar qualquer luvas ou qualquer coisa. Estamos nos concentrando nesse mercado especificamente porque nós só gostaria de ajudar as pessoas em geral. Nós não só queremos ajudar as pessoas que querem falar em muitas línguas diferentes, mas também queremos ajudar as pessoas que não podem falar em qualquer idioma. A tecnologia existe, e não há razão para a sua qualidade de vida deve ser diferente do que a nossa.

John: É um conceito viável. É apenas uma entrada e uma saída diferente. Algumas das conversas que tivemos com a Microsoft sobre alguns dos futuros tecnologias é onde alguém poderia realmente implantar um microchip em seu pescoço, e ele lê diretamente os seus padrões de ondas cerebrais. Então, se você está ajudando as pessoas que não podem se comunicar, seria realmente ver algo assim como três implantação de fase.

No ano passado, houve um grupo de estudantes que saiu com um protótipo funcional de uma luva que foi conectado a um computador. Os gestos que você fez com a luva, então, ser reconhecido e convertido em linguagem gestual. Então, eles já têm a capacidade com a tecnologia atual.

Nossa visão é que nós realmente não quero criar os acessórios como as faixas de braço que você tem que colocar. Deve ser apenas natural e livre fluindo para eles [pessoas que fazem a língua de sinais] para fazê-lo na frente de sua câmera de vídeo. 90% do que as pessoas dizem na comunicação é, na verdade, em sua linguagem corporal. Ser capaz de acessar reconhecimento facial, gestos e emoções, nós vamos ser capazes de usar esses dados, assim como para se certificar de que a tradução eo que eles estão tentando transmitir é expressa na forma correta.

MUO: É Intel dentro da faixa de ter que tecnologia de reconhecimento de linguagem de sinais cinco anos?

John: Intel definitivamente tem um monte de recursos disponíveis. Sua tecnologia e seu software está vindo junto a um ritmo em que podemos fazer isso acontecer rapidamente.

MUO: Você tem um prazo para quando você está esperando para obter esta tecnologia no mercado?

John: Para a linguagem de sinais, é cerca de 12 a 18 meses.

MUO: Alguém aí tem alguma coisa como esta para tradução de linguagem gestual?

JohnEu vi um vídeo do YouTube da IBM fazer um protótipo onde alguém estava fazendo a linguagem de sinais, mas foi uma prova de conceito e só tinha como três ou quatro palavras que ele reconhecidos. Temos mais de quinhentos mil palavras que estamos planejando para estendê-lo com, por isso vai levá-lo a um outro nível.

Conclusão

Enquanto a visão que os estudantes de Berghs sonhado pode não se tornar o aplicativo de tradução linguagem de sinais do futuro, isso não significa que tal conceito não vai acontecer. O que o trabalho feito na SpeechTran, Intel e Microsoft prova é que a tradução linguagem de sinais é quase certo para se tornar uma verdadeira tecnologia dentro de poucos anos. Ele provavelmente não envolverá bandas pesadas braço, mas em vez nada mais do que uma câmera de vídeo especial e um aplicativo móvel.

Através da magia do gesto e reconhecimento facial, esta linguagem de sinais aplicativo de tradução do futuro promete revolucionar completamente a comunicação interpessoal para centenas de milhares de deficientes auditivos ou com dificuldades de audição indivíduos em todo o mundo.5 melhores recursos para Mac & Maçã usuários de dispositivos com Deficiência5 melhores recursos para Mac & Maçã usuários de dispositivos com Deficiênciaconsulte Mais informação


Artigos relacionados