¿Cómo debería ser moderado el desarrollo de inteligencia artificial?

El desarrollo de la inteligencia artificial es un tema desde que proviene muchas preguntas importantes y matices para considerar. Una de las preocupaciones principales son los éticos de su uso. ¿Cómo asegurar que el uso de IA se hace en una manera responsable y segura? ¿Dónde hay que marcar la línea antes de que un uso se considere no ético? Y, por su puesto, el clásico: ¿IA nos va a matar? Estas preguntas, siendo obstinadas y especulativas, no son fáciles de contestar. 

Lamentablemente, no existe una sola respuesta correcta. Por ejemplo, uno podría argumentar que la IA no debería ser filtrada y que todas las respuestas, generaciones y otras formas de salida deberían ser completamente brutas sin ningún tipo de filtro. La mayoría de las personas argumentarían que una carencia completa de filtros no está bien. Esto puede causar daño a una persona o un grupo de personas. Un modelo largo de aprendizaje de lenguaje tiene potencial a dar consejos, instrucciones y otras formas de información que son dañosos. ¿Y en caso de que esto suceda, quien tiene la culpa? Esto también es otro tema para discutir: hay que ser responsabilidad en la escena. Alguien puede argumentar que cada uno tiene la responsabilidad por lo que le alimente el modelo IA. Pero, siendo seres humanos, y muy lejos de perfectos, esta idea simplemente no tiene sentido. Es posible que una respuesta dañosa se dé a una persona con una enfermedad mental, una persona inmadura, u otro tipo de persona vulnerable.

Mi opinión es que un enfoque medio es la mejor idea, y que lo que deberíamos de hacer es implementar salvaguardias razonables que aseguran que todas las respuestas se filtren bien para evitar cosas dañosas. Sin embargo, es importante que no siempre asumamos lo peor de uno. Usando ChatGPT recientemente, he notado que a veces, asume que tengo intenciones malas tratando a generar código de ciertos temas. También, me di cuenta de que uno puede retocar su pregunta/mensaje para evitar este filtro inefectivo fácilmente. Esto, ignorando que se lo implementaron en una manera tonta, también tiene que ver con mi argumento final de este ensayo: malhechores son dedicados. ¿Si estás tratando a generar código malicioso, te va a detener si tenés que revisar tu solicitud a veces? Lo mas probable es que no. Pero si es una persona aleatoria sin intenciones malas, lo mas probable es que sí te vaya a detener y te va a hacer sentir enfadado y sin ayuda. Y sí, cabe aclarar que podés ser una persona aleatoria con malas intenciones. Pero esto es poco probable en una situación muy general generando código, como mi ejemplo.

Te agradezco por leer hasta aquí y deseo que tengas un lindo día.

Comentarios

Entradas más populares de este blog

Quiero aprender el idioma indonesio