Oggi approfondiamo il funzionamento dei giunti. Ne esistono davvero molti tipi ma i più comuni sono quelli rotoidali e prismatici. Rispettivamente queste due tipologie permettono una rotazione tra i links oppure una traslazione. Come possiamo vedere nell'illustrazione si possono contare 1 giunto rotoidale e 2 prismatici. In genere questi ultimi vengono poco usati e sono tecnicamente scomodi, il link deve infatti letteralmente scivolare dentro il giunto. Un set di giunti rotoidali permettono invece di raggiungere un gran numero di posizioni, provate ad immaginare per esempio il nostro corpo, può infatti raggiungere svariate pose usando solo le sole rotazioni.
Nella catena cinematica abbiamo anche due punti fondamentali che si trovano alle estremità, ma di queste ne parleremo la prossima volta, buon fine settimana ☺️
Nella catena cinematica abbiamo anche due punti fondamentali che si trovano alle estremità, ma di queste ne parleremo la prossima volta, buon fine settimana ☺️
Due parti fondamentali facili da osservare nei modelli dei manipolatori sono la base del robot e la sua estremità. L'importanza della base sta nel fatto che spesso viene preso come punto di riferimento dal cervello del robot per capire dove si trova l'estremità detta End Effector (EF).
Ovviamente nel caso in cui il nostro
robot abbia le ruote la base sarà mobile e si dovrà fare affidamento su dei sensori per determinare la posizione assoluta del carrellino, ma si può ancora utilizzare la base per conoscere la posizione relativa.
Ovviamente nel caso in cui il nostro
robot abbia le ruote la base sarà mobile e si dovrà fare affidamento su dei sensori per determinare la posizione assoluta del carrellino, ma si può ancora utilizzare la base per conoscere la posizione relativa.
Ho appena pubblicato un articolo sulla corsa dove analizzo la spinta con la fisica elementare, visto che nella robotica la meccanica è molto importante penso che qualcuno di voi possa essere interessato, vi lascio qui la spiegazione, buona serata 😁
Telegram
0 to fit - allenamento e alimentazione
Oggi torniamo letteralmente coi piedi per terra si parlerà più specificatamente di tecnica, e lo faremo richiamando un po' di concetti di fisica elementare. Non spaventatevi, non vi propinerò nessuna formulaccia, ma ho preparato questi disegnini per voi per…
Zuppa Cibernetica 🤖 Robotica
Due importanti punti di riferimento 🎯
Ho appena cambiato la foto di questo messaggio perché era un pugno nell'occhio😁
A breve nuovi minipost tecnici-divulgativi. Qualche richiesta?
A breve nuovi minipost tecnici-divulgativi. Qualche richiesta?
Quando si parla di posizione di qualcosa bisogna prendere sempre qualcos'altro come riferimento, prendete ad esempio la misura della vostra altezza, il punto 0 del metro parte da terra e non in un punto casuale dello spazio. In genere in robotica con la parola posa si intende non solo la posizione, quindi il punto nello spazio dove si trova l'EF rispetto alla base, ma anche il suo orientamento, afferrare un oggetto dall'alto infatti è molto diverso che prenderlo da un fianco.
E come fa il robot a leggere la propria posa? Qualche settimana fa abbiamo visto che i robot hanno delle parti mobili chiamate giunti, su ogni giunto (spesso integrato nel motore) è presente un sensore detto encoder che fornisce l'angolo di apertura del giunto. Da li si può quindi stimare in che posizione si trova ogni link e quindi quale sarà la posa dell'EF. Questo ambaradan si chiama cinematica diretta, e serve a stimare la posizione nello spazio possedendo come ingresso gli angoli dei giunti.
Il processo contrario si chiama, indovinate un po', cinematica inversa. I calcoli per eseguirla sono molto laboriosi da svolgere a mano però nulla di impossibile per robottini meno complessi. Quando i links cominciano a diventare tanti i computer ci vengono in aiuto, e semplicemente fornendo la posa desiderata dell'EF possiamo trovare le sue possibili configurazioni, ovvero l'insieme degli angoli dei giunto che ci servono per raggiungerla. Perchè é così difficile fare questi calcoli a mano?
L'insieme di punti raggiungibili dal robot si chiama spazio di lavoro ed è quello che potete vedere nell'immagine. Ora provate a tenere il vostro corpo fermo, e a raggiungere un oggetto nello spazio, quindi tenete in mano l'oggetto e sempre da fermi spostate il vostro braccio (per esempio alzando il gomito e ruotando il polso). Noterete che il braccio è in grado di raggiungere un punto in modi diversi nonostante la sua base sia fissata, questa proprietà è detta ridondanza. Quando andremo a calcolare la cinematica inversa dei manipolatori infatti la maggior parte delle volte otterremo più di una combinazione di angoli.
E come fa il robot a leggere la propria posa? Qualche settimana fa abbiamo visto che i robot hanno delle parti mobili chiamate giunti, su ogni giunto (spesso integrato nel motore) è presente un sensore detto encoder che fornisce l'angolo di apertura del giunto. Da li si può quindi stimare in che posizione si trova ogni link e quindi quale sarà la posa dell'EF. Questo ambaradan si chiama cinematica diretta, e serve a stimare la posizione nello spazio possedendo come ingresso gli angoli dei giunti.
Il processo contrario si chiama, indovinate un po', cinematica inversa. I calcoli per eseguirla sono molto laboriosi da svolgere a mano però nulla di impossibile per robottini meno complessi. Quando i links cominciano a diventare tanti i computer ci vengono in aiuto, e semplicemente fornendo la posa desiderata dell'EF possiamo trovare le sue possibili configurazioni, ovvero l'insieme degli angoli dei giunto che ci servono per raggiungerla. Perchè é così difficile fare questi calcoli a mano?
L'insieme di punti raggiungibili dal robot si chiama spazio di lavoro ed è quello che potete vedere nell'immagine. Ora provate a tenere il vostro corpo fermo, e a raggiungere un oggetto nello spazio, quindi tenete in mano l'oggetto e sempre da fermi spostate il vostro braccio (per esempio alzando il gomito e ruotando il polso). Noterete che il braccio è in grado di raggiungere un punto in modi diversi nonostante la sua base sia fissata, questa proprietà è detta ridondanza. Quando andremo a calcolare la cinematica inversa dei manipolatori infatti la maggior parte delle volte otterremo più di una combinazione di angoli.
La triangolazione laser è una tecnica che serve a ricostruire digitalmente le geometrie di un oggetto. Il funzionamento è parecchio semplice e si può paragonare agli ultrasuoni dei pipistrelli. Se un fascio laser raggiunge la camera conoscendo esattamente quanto questa sia inclinata è possibile sapere che a una certa distanza c'è qualcosa che fisicamente fa rimbalzare il fascio. Non abbiamo nemmeno bisogno di regole di trigonometria perché il fascio incontrerà l'obiettivo della telecamera sempre alla stessa distanza.
Come utilizzare questa tecnologia?
Attualmente in commercio ci sono diversi scanner che si basano su questo principio. Provate ad immaginare una pistola provvista di questi due elementi in foto, conoscendo esattamente la posizione e l'inclinazione della pistola, basterà muoverla attorno all'oggetto da misurare per ricostruirlo. A questo punto il problema diventa tracciare la pistola, ma che non è argomento di oggi :)
Come utilizzare questa tecnologia?
Attualmente in commercio ci sono diversi scanner che si basano su questo principio. Provate ad immaginare una pistola provvista di questi due elementi in foto, conoscendo esattamente la posizione e l'inclinazione della pistola, basterà muoverla attorno all'oggetto da misurare per ricostruirlo. A questo punto il problema diventa tracciare la pistola, ma che non è argomento di oggi :)
Dopo aver scritto sulla triangolazione laser mi è venuto in mente che da piccolo giocavo con i moduli misuratori di distanza di Arduino. Spesso chiamati anche sensori di prossimità si dividono in infrarossi e ultrasuoni. La triangolazione funziona in maniera simile ma è molte volte più precisa. Quando si misura tramite infrarossi bisogna poi misurare anche la potenza di ritorno del fascio e stimare quanto potrebbe essere andato lontano per aver dissipato una certa quantità di energia, si capisce che questo metodo non è per niente adatto per lavori di precisione. Però questo tipo tipo di sensori si usano molto come nei sistemi allarme perché se non possono misurare con precisione possono essere certi di aver registrato una variazione significativa nell'ambiente circostante 😁
🗺 Ciao ragazzi, sto lavorando ad una tesina da presentare alla domanda per il dottorato. Mentre riflettevo sulle tecnologie già presenti e su quelle che potrebbero essere sviluppate sopraggiunge un idea buffissima. Avete presente i robot aspirapolvere? non vi siete mai chiesti come riescano a creare una mappa dell'ambiente circostante? Questo è uno dei problemi più discusso negli ultimi tempi e viene chiamato SLAM: Simultaneous Localization and Mapping. Il fatto di poter mettere un robot in un qualunque ambiente e far si che persegua il suo obiettivo autonomamente è ancora però pieno di problematiche, tra cui la dinamicità e la memoria limitata.
🫂 È un mondo parecchio interessante ma non è a questo che stavo inizialmente indagando, in Italia vanno molto forti i robot sociali, insomma è brutto da dire ma è qualcosa in grado di far compagnia all'uomo. Ma al momento siamo parecchio lontani dalla completa autonomia di questi sistemi e pensando sia ai possibili problemi che alle risoluzioni mi è venuto in mente il problema dello SLAM, quindi mi sono chiesto: anziché scoprire l'ambiente circostante come si fa nello SLAM, è possibile utilizzare gli stessi metodi per una ricerca del mondo interiore di una persona? Ecco già forse ci troviamo ai limiti della fantascienza, vi cito per esempio la Guida galattica per autostoppisti dove i robot creati dalla società cibernetica Sirio, ancora in via sperimentale, hanno addirittura delle emozioni (per esempio la porta che quando si apre e lascia passare qualcuno prova piacere). Ma davvero sarebbe una buona idea riuscire in questa impresa? E arriviamo all'idea buffa che mi ha spinto a raccontarvi tutto ciò: ok spesso agiamo con logica lo ammetto e fino a li tutto ok, ma per il resto siamo esseri paradossali, capita che la mente si riempia di così tante contraddizioni che se un robot dovesse riuscire ad empatizzare con noi umani probabilmente si romperebbe con tanto di fumo che esce dalle orecchie 😂 Sempre dalla Guida galattica per autostoppisti c'è un personaggio chiave che calza a pennello per questo ragionamento, Marvin il robot paranoico ha un cervello illimitato, ha quindi superato il problema della capacità di calcolo e memoria limitata, ma la cosa triste che tutta questa efficienza lo porta ad un continuo stato depressivo.
Tutto scorre, sia l'ambiente circostante e soprattutto quello interiore, non bisogna aver paura di mettersi in discussione o cambiare idea. Ovviamente non nego che un aiuto esterno possa esistere ma penso che l'unica cosa in grado di navigare tra le nostre contraddizioni interiori sia l'artefice, ovvero ognuno di noi, e consci di questo penso che nessun robot sarà in grado mai di dirci dove indica il nostro cuore. Detto questo torno a lavorare alla tesina di PHD, buona continuazione di settimana 😌
Risorse:
Simultaneous localization and mapping: part I
Marvin il robot paranoico
🫂 È un mondo parecchio interessante ma non è a questo che stavo inizialmente indagando, in Italia vanno molto forti i robot sociali, insomma è brutto da dire ma è qualcosa in grado di far compagnia all'uomo. Ma al momento siamo parecchio lontani dalla completa autonomia di questi sistemi e pensando sia ai possibili problemi che alle risoluzioni mi è venuto in mente il problema dello SLAM, quindi mi sono chiesto: anziché scoprire l'ambiente circostante come si fa nello SLAM, è possibile utilizzare gli stessi metodi per una ricerca del mondo interiore di una persona? Ecco già forse ci troviamo ai limiti della fantascienza, vi cito per esempio la Guida galattica per autostoppisti dove i robot creati dalla società cibernetica Sirio, ancora in via sperimentale, hanno addirittura delle emozioni (per esempio la porta che quando si apre e lascia passare qualcuno prova piacere). Ma davvero sarebbe una buona idea riuscire in questa impresa? E arriviamo all'idea buffa che mi ha spinto a raccontarvi tutto ciò: ok spesso agiamo con logica lo ammetto e fino a li tutto ok, ma per il resto siamo esseri paradossali, capita che la mente si riempia di così tante contraddizioni che se un robot dovesse riuscire ad empatizzare con noi umani probabilmente si romperebbe con tanto di fumo che esce dalle orecchie 😂 Sempre dalla Guida galattica per autostoppisti c'è un personaggio chiave che calza a pennello per questo ragionamento, Marvin il robot paranoico ha un cervello illimitato, ha quindi superato il problema della capacità di calcolo e memoria limitata, ma la cosa triste che tutta questa efficienza lo porta ad un continuo stato depressivo.
Tutto scorre, sia l'ambiente circostante e soprattutto quello interiore, non bisogna aver paura di mettersi in discussione o cambiare idea. Ovviamente non nego che un aiuto esterno possa esistere ma penso che l'unica cosa in grado di navigare tra le nostre contraddizioni interiori sia l'artefice, ovvero ognuno di noi, e consci di questo penso che nessun robot sarà in grado mai di dirci dove indica il nostro cuore. Detto questo torno a lavorare alla tesina di PHD, buona continuazione di settimana 😌
Risorse:
Simultaneous localization and mapping: part I
Marvin il robot paranoico
Spero ci sia ancora qualche appassionato di robotica qui, io nel frattempo sono diventato dottorando :D
Vi segnalo un workshop sabato alle 15.30, andrò ad IRIM2023 (conferenza a Roma) e sarò anche ad uno stand alla Maker Faire questo weekend. Cercando workshops interessanti dal vivo per questo evento ho notato che questo lo trasmettono pure sulla piattaforma TEAMS: https://drive.google.com/file/d/1r3zpuYhqvjGeyRZOsyYmH_e0YUbsDbeo/view
Se invece passate da roma ecco l'intero programma, io sarò alle sessioni poster di sabato e domenica: https://docs.google.com/spreadsheets/d/1-OYptcFEIrGX199VpQ4aVaP1q8dxU2iz/edit#gid=1941454428
Vi segnalo un workshop sabato alle 15.30, andrò ad IRIM2023 (conferenza a Roma) e sarò anche ad uno stand alla Maker Faire questo weekend. Cercando workshops interessanti dal vivo per questo evento ho notato che questo lo trasmettono pure sulla piattaforma TEAMS: https://drive.google.com/file/d/1r3zpuYhqvjGeyRZOsyYmH_e0YUbsDbeo/view
Se invece passate da roma ecco l'intero programma, io sarò alle sessioni poster di sabato e domenica: https://docs.google.com/spreadsheets/d/1-OYptcFEIrGX199VpQ4aVaP1q8dxU2iz/edit#gid=1941454428
Google Docs
schedule I-RIM 3D 2023.xlsx
overview programma
I-RIM 3D 2023 - Pav. 10 Fiera di Roma ingresso Nord
Room L,Room B,Room I,Room E,Room F,Room G,Room H,Room M,Room N,Room O
Seats
Hour,no seats,357,160,550,500,208,40,64,56
Friday 20,10:30 -- 11:30,Secretariat & Info…
I-RIM 3D 2023 - Pav. 10 Fiera di Roma ingresso Nord
Room L,Room B,Room I,Room E,Room F,Room G,Room H,Room M,Room N,Room O
Seats
Hour,no seats,357,160,550,500,208,40,64,56
Friday 20,10:30 -- 11:30,Secretariat & Info…