2013-05-29

Las tres leyes de la robótica y los MOOCs

Robot
Un poco traido por los pelos, tal vez, pero con su fondo. Mucha gente ha oido hablar de las tres leyes de la robótica propuestas por Asimov, que venían a ser:


Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda Ley.1


Uno duda sobre si realmente nadie se toma en serio estas cosas (por lo básicos que son los robots o, al revés, porque hacen cosas tan complejas que nunca terminará de estar claro si hacen daño a los humanos o no -por acción o por inacción-).

En todo caso, hemos venido a hablar de The 3 Laws of Ed-Tech Robotics #TEDxNYED donde Audrey Watters desarrolla el tema alrededor de los sistemas de enseñanza y apredizaje basados en la tecnología. En particular, le preocupa el tema de la corrección automática.


The automation of teaching and learning - the development of teaching machines, robots in the classroom -- is a long-running plot line in science fiction and a long-standing goal of AI itself: the creation of artificial intelligence-backed machines that claim to automate and "personalize" lesson delivery and assessment. Many remain crude, using mostly multiple choice for the latter.


Y la pregunta, ¿los calificadores automáticos violan las leyes de la robótica?


Do robot essay graders violate the Laws of Robotics?


Porque relaciona el aprendizaje y la humanidad:


This isn't simply about "the survival of the human race" with or versus the machine - it's about our humanity. Indeed humanity and learning are deeply intertwined - intertwined with love, not with algorithms.


Ya digo, pensándolo (y en el texto se dice en alguna parte) casi suena a broma con todos los robots a los que la humanidad no les ha sido programada ni como variable auxiliar, pero está bien que alguien hable de estas cosas aunque no termine de convencernos del todo.

Etiquetas: , , , , , , , ,



Puedes enterarte de las notas nuevas en: @reflexioneseir (Twitter), Reflexiones e Irreflexiones (Página de Facebook), Reflexiones e Irreflexiones (Canal de Telegram), fernand0 (en LinkedIn), @fernand0 (en Medium), Mastodon.

2013-05-29 23:53 | 2 Comentarios | In English, please | En PDF | Para enlazar # |
| Compartir/Share | por correo | en Twitter | en LinkedIn | en Facebook | en Google+ | en Delicious |

Referencias (TrackBacks)

URL de trackback de esta historia http://fernand0.blogalia.com//trackbacks/73439

Comentarios

1
De: Pablete Fecha: 2013-05-30 10:59

Pobre Asimov ... si levantara la cabeza de la tumba y viera todos los robots de uso militar que ya están en servicio, y los que se vienen preparando ... sin contar todas las ayudas biónicas para crear 'supersoldados' ... Pobre Asimov y pobre humanidad, no hemos aprendido nada.

Por lo demás, lo de los robots calificadores me parece una chorradita. El problema está más bien en el intento de convertir a los alumnos en robots sin alma mediante sistemas de enseñanza deshumanizados.



2
De: fernand0 Fecha: 2013-06-02 23:31

TBM: Uberbin



<Octubre 2023
Lu Ma Mi Ju Vi Sa Do
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
29 30 31