Una nueva experiencia de una pareja con chatgpt: npr

En esta ilustración, un hombre está acostado a un lado de una cama, con la cabeza encajada sobre una almohada. Una mujer se sienta al otro lado de la cama, cerca del pie de la cama. Ella sostiene su teléfono con una mano y lo señala con su otra mano. A través de una burbuja de comentarios, dice ella, "¡Veamos qué tiene que decir Chatgpt sobre esto!"

Una noche reciente, mi nuevo novio y yo encontramos en un cumpleaños.

Lo acusé de haber cedido a sus ansiosos pensamientos.

“Es difícil salir de mi cabeza”, dijo David. “La espiral mental a veces es parte de la naturaleza de la sensibilidad: hay un desbordamiento emocional de esto”.

“Bueno, la espiral es mala”, dijo, una mujer que es desatada.

Nuestros diferentes estilos de comunicación han alimentado el tenso intercambio. Aunque parezco práctico y directo, es contemplativo y conceptual.

Sentí que podríamos beneficiarnos de un mediador. Así que recurrí a mi nuevo consultor relacionado, Chatgpt.

Ai entra al gato

Según un Investigación nacional reciente por el grupo de partidosque tiene aplicaciones de citas de Tinder y bisagra. Para la anécdota, conozco a mujeres que han consultado chatbots de IA en relaciones ocasionales y serias. Surgen en la trituración, descargan capturas de pantalla de hilos de texto largos para la disección, evalúan la compatibilidad a largo plazo, resuelve los desacuerdos e incluso los bajos del sonido.

Kat, uno de mis amigos que usa ChatGPT para eliminar las perspectivas de citas, me dijo que lo había encontrado bastante objetivo. Cuando las emociones podrían obstaculizar, el chatbot la ayudó a cumplir con sus estándares.

“Tengo la impresión de que da mejores consejos que mis amigos la mayor parte del tiempo. Y un mejor consejo que mi terapeuta”, dijo Kat, quien le preguntó su primer nombre por temor a que su uso de la IA pudiera comprometer futuros enlaces románticos. “Con amigos, todos caminamos con nuestras cabezas cortadas con respecto a situaciones emocionales”.

Cuando las aplicaciones cuestionan nuestras antiguas formas de encontrar conexión e intimidad, parece irónico agregar otra capa de tecnología a las reuniones. ¿Pero podría Kat estar en algo? Quizás una IA aparentemente neutral es una herramienta inteligente para resolver problemas de relación, sin equipaje humano.

Para fines periodísticos, decidí sumergirme en la tendencia.

Veamos qué tiene que decir chatgpt sobre esto …

Según la teoría de que las parejas deben buscar terapia antes de que surjan problemas importantes, propuse a mi novio menos de seis meses de edad que recurra a un chatbot de IA para obtener consejos, evaluar los comentarios de las botas y compartir los resultados. David, un artista que siempre está listo para un buen proyecto experimental (¡no hay apellido para él tampoco!), Aprendió el campo.

Nuestra primera incursión en los consejos de parejas mediadas por ChatGPT comenzó con una pregunta sugerida por el bot para despertar una discusión sobre la salud de nuestra relación. ¿David tenía recursos para ayudarlo a manejar su estrés y ansiedad? Lo hizo: estaba en terapia, hizo el ejercicio y tenía amigos y una familia de apoyo. Esta referencia a su ansiedad lo envió a una tangente.

Pensó en ser un “tipo de artista sensible”. Consideró que a las mujeres, a las que les puede gustar en teoría, realmente no quieren enfrentar a las parejas masculinas emocionalmente sensibles.

“Se supone que soy imperturbable pero también emocionalmente vulnerable”, dijo David.

Se abrió. Pero lo acusé de una espiral, proyección de hipótesis y monólogo.

Mientras masticaba grandes ideas, traté de llevar la conversación a nuestra fricción interpersonal. Aquí es donde llegó el chatgpt: guardé nuestra conversación y descargué la transcripción al bot. Y luego hice una pregunta. (Nuestros gatos han sido fuertemente modificados por la brevedad, habla mucho).

David estaba incrédulo. “Parece una instantánea”, dijo.

DESVÍOPensé. Regresé a chatgpt y leí:

Fue un resumen abrumador. Estaba, como sugirió Chatgpt, con un nivel de agotamiento. trabajo emocional En esta etapa temprana de la relación?

Presionar objetividad

Un humano me trajo de vuelta a la realidad.

“Puede ser cierto que estabas haciendo más trabajo emocional (en ese momento) o a nivel individual. Pero hay un gran sesgo”, dijo Myra Cheng, investigadora y doctorado en informática. Estudiante de la Universidad de Stanford.

El material en el que se forman los modelos de gran idioma (LLM), como ChatGPT, Claude y Géminis, en Internet, principalmente, tiene un “enorme sesgo estadounidense y blanco y masculino”, dijo.

Y esto significa que todos los tropos y sesgos culturales están presentes, incluido el estereotipo de que las mujeres trabajan emocional desproporcionada en el trabajo y las relaciones.

Cheng fue parte de un equipo de investigación que comparó dos conjuntos de datos, cada uno comprende consejos personales: un conjunto de datos escritos por humanos que respondieron a las situaciones del mundo real y al segundo conjunto de datos compuestos por juicios hechos por LLM en respuesta a los artículos sobre el consejo de Reddit (“¿Estoy I Hole **?”) Consejos del foro.

El estudio reveló que el LLM Presentar niveles más altos de la sileno – Acuerdo excesivo o adulación del usuario – como humanos.

Para problemas de competencia suave como el asesoramiento, la senofancia en los chatbots de IA puede ser particularmente peligroso, dijo Cheng, porque no hay certeza sobre su consejo es razonable. En un caso reciente que revela los peligros de un bot sycophantic, un hombre que tenía episodios maníacos dijo Las afirmaciones de Chatgpt le habían impedido Ayuda de búsqueda.

Entonces, buscando algo más cerca de la objetividad en el arranque sesgado, cambié mi accesorio.

Fue de nuevo: estaba atrapado en hacer un trabajo emocional. Acusé a Chatgpt de continuar sin equilibrio.

“¿Por qué obtienes una” comunicación clara “?” David me preguntó, como si eligiera estas palabras.

En este punto, le pregunté a Faith Drew, un terapeuta familiar aprobado con sede en Arizona que escrito sobre el temaPara consejos sobre cómo llevar el chatppt a mi relación.

Este es un caso de triangulación clásica, según Drew. La triangulación es una estrategia de adaptación en las relaciones cuando un tercero, un amigo, un padre o una IA, por ejemplo, se lleva a cabo para facilitar la tensión entre dos personas.

Hay valor en la triangulación, ya sea que la fuente sea un bot o un amigo. “La IA puede ser útil porque sintetiza la información muy rápidamente”, dijo Drew.

Pero la triangulación puede pasar desde cuando no mantienes la vista de tu pareja en la ecuación.

“Una persona sale e intenta obtener respuestas por sí mismo – “Solo voy a hablar con IA”, dijo.

Es posible que el bot incluso no tenga la capacidad de mantenerme responsable si no lo alimento con todos los detalles necesarios, dijo. En este caso, la triangulación es preciosa, dijo: “Si hacemos las preguntas correctas en el bot, como:” ¿Cuál es mi papel en el conflicto? “

El avance

En busca de neutralidad y responsabilidad, nuevamente calibré mi chatbot. “Use un idioma que no culpe”, ordené. Luego le envié el siguiente mensaje de texto de David:

Siento que me estoy acusando de no escuchar hasta que tenga la oportunidad de escuchar. Me pongo a disposición y abierta y vulnerable a ti.

“¿Qué falta de mi lado?” Le pregunté a Chatgpt.

Después de mucha adulación, finalmente respondió:

Encontré su respuesta simple y reveladora. Además, fue preciso.

Recogió mucho suave en la relación últimamente. Me hizo cenas cuando el trabajo me mantuvo tarde y dejó de lado su propio trabajo para complacerme en conversaciones a largo plazo y abrí por AI.

Pensé en un punto que Drew lo hizo, sobre la importancia de poner trabajo en nuestras relaciones, especialmente en momentos incómodos, en lugar de contar con IA.

“Poder sentarse en apuros con tu pareja, es real”, dijo. “Es normal no tener las respuestas. Está bien ser empático y no saber cómo arreglar las cosas. Y creo que ahí es donde las relaciones son muy especiales, donde la IA nunca podría ser un reemplazo”.

Aquí está mi punto de recuperación. ChatGPT tenía una pequeña descripción general de nuestra relación y su dinámica. Las relaciones son fluidas y el chatbot solo puede capturar una instantánea. Llamé a IA en tiempos de tensión. Pude ver cómo este reflejo podría alimentar nuestra discordia, no ayudar a repararla. ChatGPT podría ser apresurado para elegir lados y, a menudo, decidió demasiado rápido que algo era un modelo.

Los humanos no piensan y no siempre se comportan en modelos predecibles. Y la química es un factor importante en la compatibilidad. Si un chatbot de IA no puede sentir la química entre las personas, para sentirla, reconocer esta cosa mágica que ocurre en un espacio de tres dimensiones entre dos personas imperfectas, es difícil confiar en la máquina con respecto a algo tan importante como las relaciones.

En algunas veces, ambos estimamos que ChatGPT había dado comentarios objetivos y creativos, ofreció un análisis válido de nuestros estilos de comunicación y desactivó ciertos desacuerdos.

Pero se necesitó mucho trabajo para ser interesante. Al final, prefiero invertir esta vez y esta energía, lo que ChatGPT podría llamar mi trabajo emocional, en mis relaciones humanas.

Leave a Reply

Your email address will not be published. Required fields are marked *