Kredit:MIT, Jimmy Day/Creative Commons, Attribution 4.0 International
OKAY, vi får det. Eksperter i kunstig intelligens er på et hurtigt klip fra år til år, måned til måned, vise hvad deres forskning kan love. Men kan det være, at vi har nået det stadium i interaktionen mellem mennesker og computere, hvor du kan tænke på et spørgsmål - - uden at sige et ord - og maskinen vil svare med svaret?
Hvor meget koster alt dette? Hvad er vejret i Denver?
Projekt AlterEgo indikerer, at vi har nået en så spændende no-talk-fase.
"AlterEgo er en ikke-invasiv, bærbar, perifer neural grænseflade, der tillader mennesker at tale i naturligt sprog med maskiner, assistenter til kunstig intelligens, tjenester, og andre mennesker uden nogen stemme - uden at åbne munden, og uden eksternt observerbare bevægelser - simpelthen ved at artikulere ord internt. "
Brugerens feedback er gennem lyd, via knogleledning. Brugeren er i stand til at overføre og modtage informationsstrømme til og fra computerenheden.
Hvordan gør du det? Hvordan sender du ord ud, hvis du ikke taler højt? Dette sker gennem intern vokalisering, neuromuskulære signaler fra tungen og bagsiden af ganen oversat til computerkommandoer.
Okay, du taler lydløst med din maskine, men det er ikke en brunch -handling i Vegas. Dette er dit andet jeg. Det er mere som om du ender med at tale til dig selv. "AlterEgo søger at kombinere mennesker og computere - sådan at computing, internettet, og AI ville væve ind i menneskelig personlighed som et indre 'andet jeg' og øge menneskelig erkendelse og evner, "ifølge projektsiden.
Det er ikke at læse dit sind som et resultat af din bare tænkning. Dette er lydløs tale.
"Tavshed er en bevidst indsats for at sige et ord, kendetegnet ved subtile bevægelser af indre taleorganer uden egentlig at give udtryk for det. Processen resulterer i signaler fra din hjerne til dine muskler, der optages som neuromuskulære signaler og behandles af vores enhed, "sagde projektstedet.
Teknologien beskrives delvist som gennem knogleledning. Brugerens bærbare er en benledende hovedtelefon. Signaler transmitteres gennem et 'klistermærke, sagde Kvarts , bæres langs brugerens hals og kæbe, og svarene føres gennem et øreprop.
Hvem står bag dette projekt? De, der var til en nylig TED -konference, fandt ud af det; han er MIT Media Labs Arnav Kapur, en intelligensforstørrelsesforsker.
Anne Quito rapporterede for Kvarts og noterede sig en tidligere prototype sidste år. "Selvom 2018 -prototypen af AlterEgo fik bæreren til at se ud som om han havde en hovedskade, "Kapur sagde, at de er fokuseret på at forfine det bærbare til det punkt, at de bliver umærkelige." Faktisk, designet han viste på TED var næsten ikke påviseligt bortset fra ledningen, der kom ud af Erics øre, "sagde Quito.
Hvornår kan vi se denne enhed som et produkt? Ikke snart.
"Dette er et universitetsbaseret forskningsprojekt. Vi fortsætter med at videreudvikle systemet med fokus på forbedringer såsom at reducere antallet af nødvendige elektroder, designe mere socialt acceptable formfaktorer, forbedring af de neurale netværk, der genkender den tavse tale, samt arbejde med at reducere den nødvendige uddannelse og tilpasning, og sidst men ikke mindst, designe den end-to-end brugeroplevelse og applikationer, "forklarede projektet." Håb om kommercialisering er for tidligt. "
At, imidlertid, forhindrer ikke teamet i at stille virkelige applikationer. Som Hurtigt selskab kommenterede, implikationer af, at dette headset kan læse interne talevibrationer, er enorme. Ud over stille at spørge, hvordan vejret er i en anden by. Eller hvor meget dagligvarer koster hidtil.
En sådan modtager af AlterEgo kan være en person, der har mistet evnen til at tale på grund af ALS, halskræft eller slagtilfælde. Personen med talehandicap kunne kommunikere i realtid.
I det større billede, MIT -teamet gør sit til at se interessante områder inden for teknologi, kalder dem "kognitiv forbedring, "eller" intelligensforstørrelse. "Hvis ingeniører bruger så meget tid på at gøre vores skærme smarte, hvad med os? Det er Kapurs spørgsmål. "I stedet for at gøre boksen klogere, hvordan forbedrer du mennesker, så de er mere kreative og forbundet? "
Pattie Maes arbejder med Kapur om dette projekt en professor, der driver Media Labs forskningsgruppe Fluid Interfaces, og Eric Wadkins, maskinlæring bly. Han sluttede sig til Fluid Interfaces -gruppen for at arbejde på at skabe et kontinuerligt subvokalt talegenkendelsessystem til projektet.
© 2019 Science X Network