Una IA confiable o unos humanos con un nivel de atención suficiente
Quién más y quién menos ya ha hecho sus pruebas con las nuevas herramientas de inteligencia artificial: para qué le sirven, dónde se equivocan (o inventan) cosas, ... Me gustó leer Building Trustworthy AI que no sé si es la aproximación correcta pero que nos introduce en temas que vale la pena leer.
Empieza diciendo que pronto será una herramienta más en nuestro día a día y que debemos adquirir la costumbre de cuestionar los motivos, incentivos y capacidades detrás de ello, también.
We will all soon get into the habit of using AI tools for help with everyday problems and tasks. We should get in the habit of questioning the motives, incentives, and capabilities behind them, too.
Es algo que ya debríamos estar haciendo desde que tenemos internet (o incluso antes, claro) pero con cada 'novedad novedosa' resurge el tema. Y luego lo olvidamos, o eso parece.
Porque claro, cualquier herramienta que utilicemos (y la IA en particlar) debe ser confiable, y para ello, debemos tener cierto control sobre ella, nos dice.
For AI to truly be our assistant, it needs to be trustworthy.
Todos imaginamos lo que sería un asistente virtual confiable: le pediríamos que haga cualquier tarea (escribir un correo, preparar un texto, o cualquier cosa) y prepararía algo estupendo con el contexto que le diéramos y el conocimiento que tuviera sobre nosotros.
Let’s pause for a moment and imagine the possibilities of a trusted AI assistant. It could write the first draft of anything: emails, reports, essays, even wedding vows.
Pero lo cierto es que cuando estas inteligencias artificiales están bajo el control de grandes empresas, creadas para su beneficio y provecho, podemos sospechar que en algún momento lo que hagan no sea por ni para nosotros.
Today’s AIs aren’t up for the task. The problem isn’t the technology—that’s advancing faster than even the experts had guessed—it’s who owns it. Today’s AIs are primarily created and run by large technology companies, for their benefit and profit.
Yo aún iría un poco más allá y recordaría a todos los usuarios que estas empresas nos están dando (dejando usar) la herramienta de manera gratuita o económica, pero que podrían cambiar de idea y dejarnos sin ella en cualquier momento.
La historia avala estas ideas, casi todos los grandes productos de internet se han convertido en herramientas monopolísticas y su funcionamiento se ha adaptado a las necesidades (fundamentalmente económicas) de sus promotores.
Un ejemplo es Google.
Twenty years ago, Google’s search engine rapidly rose to monopolistic dominance because of its transformative information retrieval capability. Over time, the company’s dependence on revenue from search advertising led them to degrade that capability.
Entonces, nos dice, un sistema de inteligencia artificial debería ser controlable por el usuario; en particular, debería poder ejecutarse en los dispositivos de sus usuarios y otras restricciones.
First, a trustworthy AI system must be controllable by the user. That means that the model should be able to run on a user’s owned electronic devices (perhaps in a simplified form) or within a cloud service that they control.
Por no exagerar demasiado, no estoy seguro de que este modelo sea razonable ni posible: la experiencia nos muestra que no hay tantas personas con capacidad técnica suficiente para comprender y manejar este tipo de sistemas. Mi propuesta iría más por fomentar la diversidad de proveedores para que no haya organizaciones que dominen completamente las posibilidades. Incluso estatales/gubernamentales, que seguramente no serían tan buenas, pero nos darían cierta independencia.
También indica que los usuarios deberían tener control sobre sus datos cuando se utilicen para entrenar estos sistemas.
Furthermore, users should be in control of the data used to train and fine-tune the AI system. When modern LLMs are built, they are first trained on massive, generic corpora of textual data typically sourced from across the Internet.
...
Any trustworthy AI system should transparently allow users to control what data it uses.
Finalmente, deberíamos estar bien informados de lo que un sistema de estos puede hacer por nosotros, pero también en nuestro nombre.
You should also be informed of what an AI system can do on your behalf.
Como sugeríamos por arriba, estos requisitos parecen difícilmente realizables así que nos toca prepararnos para el uso de una (otra) herramienta en la que no podemos confiar del todo.
Realistically, we should all be preparing for a world where AI is not trustworthy. Because AI tools can be so incredibly useful, they will increasingly pervade our lives, whether we trust them or not.
Nuevos retos, nuevas consideraciones y ojalá esta vez no nos dejemos llevar por la confianza extrema (o, tan mala como ella, por la desconfianza y no sacar partido de estas herramientas).
Puedes enterarte de las notas nuevas en: @reflexioneseir (Twitter), Reflexiones e Irreflexiones (Página de Facebook), Reflexiones e Irreflexiones (Canal de Telegram), fernand0 (en LinkedIn), @fernand0 (en Medium), Mastodon.
2023-07-10
16:53
|
0 Comentarios
| In English, please |
En PDF |
Para enlazar # |
| Compartir/Share | por correo | en Twitter | en LinkedIn | en Facebook | en Google+ | en Delicious |
| Compartir/Share | por correo | en Twitter | en LinkedIn | en Facebook | en Google+ | en Delicious |