Articolo

Android dà occhi, orecchie e un senso dell'orientamento a un robot Lego NXT

protection click fraud

Mentre alcuni di noi usano i nostri telefoni per comunicare o giocare a giochi fantastici, ci sono quelli che portano la scienza e il tempo libero a un livello superiore. Mike Partain è una di quelle persone. Utilizzando un kit di robotica Lego NXT disponibile in commercio, a Motorola Droid e un intero secchio di ingegnosità e intelligenza, Mike ha aggiunto i sensori che mancavano al kit di robotica: fotocamera, GPS e bussola. Fai una pausa per leggerlo con le parole di Mike, un collegamento al codice sorgente (grazie speciali Mike!) e un paio di video che mostrano diverse visualizzazioni dall'occhio impassibile del droide. [spike3 su PBase]

Abbiamo contattato Mike per una piccola spiegazione su questo progetto, perché francamente, avevamo bisogno che le cose fossero portate a un livello che potessimo capire un po 'meglio. È stato abbastanza utile da darci i dettagli, che sono qui nella loro interezza.

Uno dei miei desideri di tutti i tempi era avere il mio robot. E ora, Lego ha reso pratico il gioco con i robot con i kit di robot Lego NXT. Questi kit seguono lo spirito dei Lego in quanto sono facili, economici e divertenti da assemblare in più varietà di robot a ruote ea piedi. I kit includono un cervello che controlla tre motori e fino a 4 sensori. Ma ciò che mancava era una fotocamera remota, una bussola e un GPS. Inserisci il Motorola Droid o la maggior parte dei dispositivi Android per quella materia. Poiché il telefono Android contiene questi sensori avanzati ed è basato su Java e open source, ho pensato che lo sarebbe stato basta "collegare" il Droid al mio computer e monitorare i suoi sensori fianco a fianco con i miei Lego Robots Software. Non ero troppo lontano. Ho faticato alcuni giorni a elaborare il codice necessario per decodificare l'immagine di anteprima della fotocamera, ma tutto il resto è andato abbastanza bene. Alla fine, ho avuto un enorme sorriso sul mio viso mentre il mio robot Lego si avventurava attraverso il vasto tappeto del soggiorno, con me che lo controllavo a distanza solo dall'immagine che potevo vedere sullo schermo del mio computer. Non è il robot che si perde nello spazio, ma nondimeno può aprire molte giovani menti su come potrebbe apparire il loro futuro.

Devo notare che il software non è di qualità "finito". È una prova di concetto e funziona. Potrei o meno migliorarlo o completarlo, quindi lo renderò disponibile così com'è senza licenze o restrizioni (o promesse).

Sono disponibili 3 software;

Il codice Java di Android (droidSense). Questo codice è un semplice server TCP che fornisce dati di immagine grezzi non decodificati (dall'anteprima della fotocamera, dati del sensore e dati GPS a qualsiasi client.

Il programma .Net autonomo (AssClient) che comunica con il server Java di Droid, decodifica i dati dell'immagine grezza e visualizza l'immagine, il sensore grezzo ei dati GPS.

Un servizio di studio Microsoft Robotics (AndroidCameraService) che fornisce un'immagine WebCam generica per l'uso da parte di un programma MRDS visivo o standard.

Il pezzo Java viene eseguito sul Droid (non esiste un'interfaccia utente, mostra solo la superficie di anteprima durante l'esecuzione, usa "force stop" per uccidere it), quindi esegui uno dei due pezzi sul PC (non ho provato a eseguirli entrambi contemporaneamente, ma suppongo che potrebbe lavoro).

E infine, se hai il know-how e il tempo, ecco un link al codice sorgente che Mike è stato così gentile da fornirti. Grazie ancora Mike, questa è una delle cose più belle di sempre!

Hai ascoltato il podcast Android Central di questa settimana?

Android Central

Ogni settimana, Android Central Podcast ti offre le ultime notizie tecnologiche, analisi e hot take, con co-host familiari e ospiti speciali.

  • Iscriviti in Pocket Casts: Audio
  • Iscriviti su Spotify: Audio
  • Iscriviti in iTunes: Audio

Rimaniamo in contatto

Iscriviti ora per ricevere le ultime notizie, offerte e altro da Android Central!

instagram story viewer