Talk:E2GoHome

From AIRWiki
Jump to: navigation, search

DeadLine

  • Navigazione - END 31/06
    • Scegliere Path planner e Simulazione -done
    • Simulazione modulo di localizzazione su mappa -done
    • Creazione mappa 2D -done
  • Comportamenti - END 31/07
    • Completare comportamenti
    • Simulazione modulo mrt
    • Codice per comportamenti
  • Testing su robot - End ?

Comportamenti

  • GoHome: Se viene rilevata una persona interessata, il comportamento si occupa di riportare il robot a casa.
  • UserFollowing: Se il robot sta tornando verso casa, controlla che l'utente lo stia effettivamente seguendo. Il robot effettua l'azione sulla base del tempo dall'ultimo controllo e in base al numero di persone presenti nel campo visivo.
  • Wait: Se la distanza della persona è eccessiva E-2 si ferma per aspettarla
  • RecoverUser: Se E-2 perde il contatto con la persona per un tempo abbastanza lungo, torna sui suoi passi per cercare la persona
  • AvoidObstacle: Comportamento che ha lo scopo di evitare gli ostacoli durante gli spostamenti del robot. Eventualmente si feram se gli ostacoli sono persone in movimento e ce ne sono troppe.
  • KeepUserConnection: Se l'utente sta seguendo il robot e c'è ancora molta distanza da "casa" il robot intrattiene l'utente per mantenere una connessione.

GoHome

Il robot fa affidamento su un altro modulo che valuta l'interesse della persona. Se viene mostrato interesse il robot calcola la traiettoria migliore per tornare a "casa" e inizia a seguire la traiettoria creata. Vedi Navigazione.

UserFollowing

Lo scopo di questo comportamento è quello di determinare se la persona che è stata ingaggiata stia effettivamente seguendo il Robot. Il comportamento viene attivato sulla base di due variabili: il tempo trascorso dall'ultimo controllo, e il numero di persone rilevate nel campo visivo(Si considera che un numero elevato di persone aumenti le probabilità che il robot perda il contatto con la persona).

Una possibile sequenza di movimenti potrebbe essere:

  • Ridurre la velocità fino al completo stop delle ruote.
  • Rotazione del collo fin quando non viene rilevata una persona.
  • Centrare il volto della persona e controllare se è la persona ingaggiata. (Controllare come viene effettuato il controllo su openni-kinect):
    • Se la persona è la stessa il collo torna alla posizione iniziale e riprende la navigazione
      • Se la distanza rilevata dalla persona supera una certa soglia si deve attivare il comportamentoWait.
    • Se la persona non è la stessa torna al punto 3 finchè non viene effettuato un giro completo di 360°. Se La persona non viene rilevata allora deve essere attivato il comportamento RecoverUser.

In aggiunta al controllo visivo può essere usato il sonar per ridurre le iterazioni di controllo. Se ad esempio l'ultimo controllo rileva che la persona è alla destra di E-2?, allora fintanto che viene rilevata una presenza alla destra del robot non è necessario effettuare il controllo, o comunque viene ridotto il numero di controlli.

Wait

Questo comportamento ha l'obbiettivo di aspettare la persona nel caso la distanza dall'utente sia maggiore di una certa soglia. Può essere attivato mediante l'ausilio del sonar e dell'ultima posizione rilevata della persona, o nel caso in cui durante il comportamento UserFollowing sia stata rilevata una distanza eccessiva. Inoltre il robot sta seguendo una traiettoria che lo riporti a "casa".

Le azioni che il robot deve effettuare possono essere di 2 tipi. Nel caso il robot sia in movimento, la velocità può essere modificata proporzionalmente alla distanza dalla persona per ridurre quest'ultima. Nel caso invece il robot sia già fermo a seguito del comportamento UserFollowing allora E-2? rimane fermo

Da info, il sonar percepisce min e max distanze comprese tra [0-6]m Occorre pero' considerare che il sonar non riconosce la persona, ma misura solo una distanza, quindi puo' essere solo relativamente affidabile.

RecoverUser

Se non è stata rilevata la persona che si sta accompagnando durante l'ultimo controllo e si sta seguendo una traiettoria che porta il robot a "casa", viene attivato questo comportamento che ha lo scopo di cercare la persona a ritroso seguendo la traiettoria seguita fino a quel momento. E' quindi necessario che il robot tenga traccia degli spostamenti eseguiti per poter effettuare una ricerca. Inoltre è necessario che il robot si fermi in determinati punti via ruotando il collo per cercare la persona in più direzioni(180° ?).

AvoidObstacles

Lo scopo di questo comportamento è quello di evitare gli ostacoli. Le variabili che ne determinano l'attivazione sono la distanza dagli oggetti e la loro posizione, mediante l'utilizzo del sonar. Ad es. Se è presente un ostacolo frontalmente e il robot sta proseguendo in quella direzione allora è necessario cambiare traiettoria. Si possono presentare 2 tipi di ostacoli, fissi o mobili. Nel caso di oggetti fissi, non ci sono particolari problemi, mentre nel secondo caso si potrebbe valutare la direzione del movimento dell'oggetto con l'ausilio del kinect per determinare la direzione dell'oggetto, mediante confronto tra frame. INoltre, se ci fosse tropo traffico si potrebbe decidere di fermarsi e magari attivare un comportamento per cercare di ottenere campo libero ("Per favore, fateci passare...")

KeepUserConnection

Se il robot sta seguendo una traiettoria che lo riporta a casa, e viene determinata la presenza della persona con l'ausilio del sonar e dell'ultima posizione rilevata, (ad es. destra, sinistra), E-2? inizia un interazione con la persona parlando di progetti o altro per tentare di mantenere alto l'interesse della persona che si sta accompagnando.



Fuzzy Sets

Di seguito vengono riportati gli insiemi fuzzy che verranno utilizzati per la valutazione dei predicati

Distance

Viene rilevata dal Kinect mediante triangolazione (Kourosh Khoshelham massima distanza percepibile ca. 5m).

Si può utilizzare una MF che copra tutto l'universo del discorso e che assuma valore massimo agli estremi [0-3?5]m Si possono utilizzare tre insiemi, [CLOSE,MEDIUM,FAR] di forma trapezoidale.

Immagine

Time

Definisce un insieme fuzzy per valutare quando è stato effettuato l'ultimo controllo da parte del robot. Una possibile definizione per l'intervallo di tempo potrebbe essere [0;60]s con i seguenti label [VERY_RECENT, RECENT, OBSOLETE] con forma trapezoidale.

Sonar

Insieme fuzzy che determina la distanza di un oggetto dal robot. Intervallo [?;?]. Label [VERY_NEAR,NEAR,FAR]


Crowding

Fuzzy che definisce quanto è affollato il campo di visione. [Vedere limiti kinect] Label [LOW,MEDIUM,HIGH]


Angle

Fuzzy set utilizzato per definire la posizione della testa rispetto al corpo. Intervallo [0;360]° Label [N,NE,NW....]

Percentage

Fuzzy set per il controllo della batteria. [0,100]% Label [VERY_LOW,LOW,MEDIUM,GOOD]

Predicati & Cando/Want Conditions

  • Dubbi
    • Vanno definiti anche predicati per il controllo HW ?
    • La testa deve essere usata principalmente per orientarsi durante la navigazione quindi è necessario ridurre i controlli da parte del kinect per controllare se la persona sta seguendo il robot. Quindi Bisogna usare il sonar per assicurarsi che venga seguito.

Predicati

  • ( HeadAlign ANGLE )
  • ( BatteryStatus PERCENTAGE )
  • ( PeopleDetected CROWDING )
  • ( UserDistance DISTANCE )
  • ( UserDetected BOOLEAN )
  • ( UserCheck TIME )
  • ( UserInterested BOOLEAN )
  • ( UserLeft BOOLEAN )
  • ( UserRight BOOLEAN )
  • ( SonarSE SONAR )
  • ( SonarE SONAR )
  • ( SonarNE SONAR )
  • ( SonarN SONAR )
  • ( SonarNW SONAR )
  • ( SonarW SONAR )
  • ( SonarSW SONAR )


  • User_is_near = ( D UserDistance NEAR )
  • User_is_interested = ( D UserInterested TRUE )
  • PersonInFront = ( AND ( D HeadAlign FRONT ) ( AND ( D UserDetected TRUE ) ( P User_is_near ) ) )
  • ObjectInFront = ( OR ( D SonarN NEAR) ( OR ( D SonarNE VERY_NEAR ) ( D SonarNW VERY_NEAR ) ) )

  • User_is_left = ( D UserLeft TRUE )
  • User_is_right = ( D UserRight TRUE )
  • ObjectLeft = ( OR ( D SonarE VERY_NEAR) ( D SonarSE VERY_NEAR ) )
  • ObjectRight = ( OR ( D SonarW VERY_NEAR) ( D SonarSW VERY_NEAR ) )

  • Obstacle_detected = ( OR ( P PersonInFront ) ( P ObjectInFront ) )
  • Many_people = ( D PeopleDetected HIGH)
  • Check_is_recent = ( D UserCheck RECENT )
  • User_is_following = ( OR ( AND ( P User_is_left) ( P ObjectLeft ) ) ( AND ( P User_is_right) ( P ObjectRight ) ))


  • Battery_is_low = ( OR ( D BatteryStatus LOW ) ( D BatteryStatus VERY_LOW ) )
  • Following_trajectory = ()

Cando/Want Conditions

Behaviours Cando Want
GoHome ( OR (P Battery_is_low ) ( AND ( P User_is_interested) ( P User_is_near) )
UserFollowing ( OR ( NOT ( P Check_is_recent) ) (P Very_crowded ) ) ( P Following_trajectory)
Wait ( OR ( AND ( P Check_is_recent) ( NOT (P User_is_following) ) ) ( AND ( P RobotStopped) (AND ( P User_is_interested) ( NOT ( P User_is_near) ) ) ) ( P Following_trajectory)
RecoverUser ( AND ( P Check_is_recent) ( NOT (P User_is_following) ) ) ( AND ( P Following_trajectory) ( P RobotStopped) )
AvoidObstacles ( OR ( P Obstacle_detected ) ( P Many_people) )
KeepUserConnection ( AND ( P Check_is_recent) ( P User_is_following) ) ( P Following_trajectory)

Navigazione