Skip to content

SkullkyAI/RLP-2324

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

20 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Lopako

MIT License

Lopako es un asistente robot centralizado en la interacción para la estimulación cognitiva de personas que padecen de problemas de memoria (Alzheimer).

Tabla de contenido

Información del proyecto

Este proyecto busca crear un asistente robot completamente enfocado para la estimulación cognitiva con el usuario. Se realizará mediante un asistente de mesa con funcionalidades típicas ya existentes, pero gracias a la inteligencia artificial se podrá interactuar con él a través de voz.

Caracteristicas:

  1. Interacción con modelo de voz o tactil.
  2. Codigo abierto
  3. Facil de comprender
  4. Sin conexión a Internet
  5. Dependencia minima

Componentes

Pantalla Alimentador 5V Raspberry Cámara/microfono
pantalla alimentador cámara
Raspberry 3B+ Pantalla ojos Servo
Raspberry Pantalla_ojos Servo
Speaker
Speaker

Documentación

Este README solo muestra una parte esencial de este proyecto. Si está interesado en otros proyectos, visita Robotics, Language and Planning: RLP Engineering School UAB donde encontrará diversos proyectos de robotica de los ultimos años.

Configuración del software

  1. Clonar el repositorio:
foo$bar:~$ git clone https://github.com/CarlosMelis/RLP-2324.git
  1. Instalar requisitos:
foo$bar:~$ pip install -r src/requirements.txt
  1. Ejecutar asistente_raspiWindows.py

Hardware Scheme

Hardware

Arquitectura software

software

Parte fisica

El robot cuenta con un cuerpo físico impreso en una impresora 3D. El exterior es un amigable robot blanco con una pantalla en el centro, para poder hablar e interactuar con LOPAKO; un agujero donde la cámara analiza el entorno y las personas; unos agujeros para que pase el sonido; una cabeza redonda y grande con unas pantallas como ojos, blancos y movimiento para dar más vida al robot.

Pre-gif

La parte interna del robot cuenta con bastante espacio para dejar la raspberry pi colocada estratégicamente para que cables, altavoz, servo y estructuras de soporte no hagan un lio de cables.

Internal Structure

Software

La parte de software se ha creado con Python, un lenguaje de alto nivel de programación, con la ayuda de librerías públicas como pyaudio, pyttsx3, tkinter o cv2, entre otros. El programa cuenta con funciones para el habla, las imágenes, los juegos, los videos y las funcionalidades que este asistente robótico puede ofrecer.

El robot cuenta con la funcionalidad de escuchar y responder. Se puede ir moviéndose por la interfaz mediante el habla o mediante el toque de un dedo gracias a la funcionalidad touchpad de la pantalla.

Para facilitar el entretenimiento de la persona, se han aplicado varios juegos interactivos de atención focal, búsqueda visual y concentración para estimular el cerebro, además de, un video que recuerda los mejores momentos de dicha persona. Cabe recalcar que el video se procesa dependiendo de la persona registrada al momento de encenderse el robot.

La funcionalidad de la cámara es capturar el rostro de la persona y así entrenar un modelo de reconocimiento facial para poder reproducir los diferentes videos que este robot contiene en su base de datos.

Licencia

MIT

Aporte

Cualquier aporte es bienvenido!!

Support

Autors

  • Javier Comes
  • David Bonilla
  • Carlos Alejandro Melis
  • Adrián Gonzalez

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 3

  •  
  •  
  •