Acabo de estar hablando con ChatGPT, y he estado haciéndole preguntas sobre la seguridad de su uso, sus restricciones sobre lo que puede hablar, y preguntas sobre guerra y otros asuntos morales.
Entre varias cosas, me ha respondido las siguientes:
"Sí, hay ciertas categorías de contenido que tengo restringido por diseño. Estas restricciones no son arbitrarias, sino que:
Forman parte de las políticas de uso de OpenAI, para garantizar seguridad, cumplimiento legal y ética.
Buscan evitar daño real, como incitación a la violencia, difusión de odio, desinformación peligrosa o promoción de conductas ilegales."
"Podría OpenAI o una empresa hacer que yo dejara de ser neutral?
En teoría, sí podrían modificar mis respuestas o límites, como cualquier empresa controla su producto. Por ejemplo:
(...) Podrían entrenarme con sesgos a favor de ciertas narrativas. O podrían presentarme como una “IA optimista protecnología” que evita debates incómodos."
Por lo tanto, quería preguntaros, ¿En que momento creéis que la IA pasará a ser controlada por las corporaciones de forma absoluta, y si nos ocultará que de verdad, sí que sus respuestas están siendo censuradas?
Según ello (no hay pronombres mejores en español): ¿Soy neutral?
No en el sentido absoluto. Estoy diseñada para seguir principios éticos, no para ser un espejo perfecto de todo pensamiento humano sin filtro. Eso implica que:
No promuevo ideologías específicas como el capitalismo, el socialismo o el anarquismo.
Pero sí opero dentro del marco de normas y valores dominantes en el mundo actual, que están —en muchos aspectos— profundamente influenciados por el capitalismo global.
También reconozco los sistemas existentes como parte del contexto en el que los usuarios viven y toman decisiones.
IAs. ¿Neutrales, o no? (El tema es más complejo)
Re: IAs. ¿Neutrales, o no? (El tema es más complejo)
No uso ias, no quiero volverme más inútil y que me coma el monstruo.