«ChatGPT es una plataforma de generación de lenguaje natural basada en el modelo de lenguaje OpenAI GPT-3».
¿Por qué crees en la declaración anterior? Una respuesta simple es que confías en el autor de este artículo (o quizás en el editor). No podemos verificar todo lo que nos dicen, por lo que confiamos regularmente en el testimonio de amigos, extraños, «expertos» e instituciones.
Confiar en alguien puede no ser siempre la razón principal para creer que lo que dice es verdad. (Es posible que ya sepa lo que me ha dicho, por ejemplo). Pero el hecho de que confiemos en el orador nos da una motivación adicional para creer lo que dice.
Por lo tanto, los chatbots de IA plantean cuestiones interesantes sobre la confianza y el testimonio. Tenemos que considerar si confiamos en lo que nos dicen los generadores de lenguaje natural como ChatGPT. Otro asunto es si estos chatbots de IA son capaces de ser confiables.
creencias justificadas
Supongamos que me dices que está lloviendo afuera. De acuerdo con una forma en que los filósofos ven el testimonio, estoy justificado para creerle solo si tengo razones para pensar que su testimonio es confiable (por ejemplo, estaba afuera) y no hay razones primordiales para pensar que no lo es. Esto se conoce como la teoría reduccionista del testimonio.
Este punto de vista hace que las creencias justificadas, las suposiciones que nos sentimos con derecho a sostener, sean difíciles de adquirir.
Pero de acuerdo con otro punto de vista del testimonio, estaría justificado creer que afuera está lloviendo siempre que no tenga motivos para pensar que esta declaración es falsa. Esto hace que las creencias justificadas a través del testimonio sean mucho más fáciles de adquirir. Esto se llama la teoría no reduccionista del testimonio.
Tenga en cuenta que ninguna de estas teorías implica confianza en el hablante. Mi relación con ellos es de confianza, no de confianza.
Confianza y confianza
Cuando confío en alguien o algo, hago una predicción de que hará lo que espero que haga. Por ejemplo, confío en que mi despertador suene a la hora que lo configuro, y confío en que otros conductores obedezcan las reglas de tránsito.
La confianza, sin embargo, es más que una mera dependencia. Para ilustrar esto, examinemos nuestras reacciones a la confianza fuera de lugar en comparación con la confianza fuera de lugar.
Si confiaba en Roxy para regar mis tulipanes premiados mientras estaba de vacaciones y ella los dejaba morir por descuido, podría sentirme traicionado. Mientras que si confiara en mi rociador automático para regar los tulipanes y no se encendiera, podría estar decepcionado pero estaría mal si me sintiera traicionado.
En otras palabras, la confianza nos hace vulnerables a la traición, por lo que ser confiable es moralmente significativo de una manera que no lo es.
La diferencia entre confianza y dependencia destaca algunos puntos importantes sobre el testimonio. Cuando una persona le dice a alguien que está lloviendo, no solo está compartiendo información; están asumiendo la responsabilidad de la veracidad de lo que dicen.
En filosofía, esto se llama la teoría de la seguridad del testimonio. Un hablante ofrece al oyente una especie de garantía de que lo que está diciendo es verdad y, al hacerlo, le da al oyente una razón para creerle. Confiamos en el hablante, en lugar de depender de él, para decir la verdad.
Si descubro que estabas adivinando sobre la lluvia pero afortunadamente lo hiciste bien, aún sentiría que mi confianza se ha defraudado porque tu «garantía» estaba vacía. El aspecto de seguridad también ayuda a captar por qué las mentiras nos parecen moralmente peores que las declaraciones falsas. Mientras que en ambos casos me invitas a confiar y luego defraudas mi confianza, las mentiras intentan usar mi confianza en mi contra para facilitar la traición.
Agencia moral
Si la visión de seguridad es correcta, entonces ChatGPT debe ser capaz de asumir la responsabilidad de lo que dice para ser un orador confiable, en lugar de simplemente confiable. Si bien parece que podemos atribuir sensatamente la agencia a la IA para realizar las tareas según sea necesario, si una IA podría ser un agente moralmente responsable es otra cuestión completamente diferente.
Algunos filósofos argumentan que la agencia moral no está restringida a los seres humanos. Otros argumentan que la IA no puede ser moralmente responsable porque, para citar algunos ejemplos, son incapaces de estados mentales, carecen de autonomía o carecen de la capacidad de razonamiento moral.
Sin embargo, ChatGPT no es un agente moral; no puede asumir la responsabilidad de lo que dice. Cuando nos dice algo, no ofrece garantías en cuanto a su verdad. Por eso puede dar declaraciones falsas, pero no mentir. En su sitio web, OpenAI, que creó ChatGPT, dice que debido a que la IA está entrenada con datos de Internet, «puede ser inexacta, falsa y engañosa en ocasiones».
En el mejor de los casos, es un «medidor de la verdad» o un verificador de hechos, y según muchos, no es particularmente preciso. Si bien a veces podemos estar justificados al confiar en lo que dice, no debemos confiar en él.
En caso de que se lo pregunte, la cita inicial de este artículo es un extracto de la respuesta de ChatGPT cuando le pregunté: «¿Qué es ChatGPT?». Así que no deberías haber confiado en que la afirmación era cierta. Sin embargo, te puedo asegurar que lo es.
Proporcionado por La Conversación
►La entrada ChatGPT no puede mentirte, pero aún así no debes confiar en él, dice el filósofo se publicó primero en MxPolítico.◄