Un intenso debate se ha desatado en Reddit en los últimos días: varios usuarios aseguraban que ChatGPT dejaría de responder temas médicos y legales a partir de finales de octubre, señalando un supuesto cambio radical en las políticas de OpenAI. El rumor se extendió con rapidez. Sin embargo, las cosas no son exactamente así.
El origen de la confusión
Todo comenzó cuando usuarios compartieron capturas y mensajes que interpretaban la última actualización de las Usage Policies de OpenAI como una prohibición total. Algunos afirmaban que el modelo ya no analizaría radiografías, no ofrecería recomendaciones médicas y tampoco respondería cuestiones legales.
Eso encendió la alarma: ¿ChatGPT dejaba de ser útil en dos de los temas más consultados por sus usuarios?
Qué dicen realmente las políticas
La actualización de las políticas, vigente desde el 29 de octubre de 2025, no elimina el contenido médico o legal del alcance de ChatGPT. Lo que hace es reforzar una línea roja que OpenAI ya venía marcando: el modelo no puede ofrecer asesoramiento personalizado que requiera una licencia profesional.
Eso incluye diagnósticos, tratamientos médicos concretos o estrategias jurídicas adaptadas a un caso específico. Pero no limita la información general.
Medios especializados como The Verge y Business Insider han verificado que no se trata de un nuevo veto, sino de una clarificación de normas ya existentes.
Qué cambia para los usuarios
ChatGPT seguirá explicando conceptos médicos, enfermedades, síntomas, derechos legales, procedimientos y terminología jurídica. Pero será más estricto al evitar respuestas que puedan parecerse a un diagnóstico o a una instrucción legal dirigida a un individuo concreto.
También será más probable que rechace analizar imágenes médicas o documentos legales, un punto que algunos usuarios ya habían empezado a notar.
Por qué esta precaución
Las razones son varias:
– Seguridad: incluso los modelos avanzados pueden equivocarse en contextos delicados.
– Responsabilidad legal: OpenAI busca evitar que sus sistemas sean utilizados como sustitutos de médicos o abogados.
– Claridad: la empresa pretende que los usuarios sepan distinguir entre información y asesoría profesional.
¿Deja entonces de responder sobre salud o derecho?
La respuesta es un rotundo no. ChatGPT seguirá siendo una herramienta informativa válida en ambas áreas. Podrá explicar, contextualizar y orientar, pero no sustituir a un profesional.
En definitiva, el rumor que encendió Reddit mezcló interpretaciones, capturas de pantalla y una actualización técnica. Y aunque los límites ahora serán más visibles para los usuarios, la capacidad de ChatGPT para ofrecer información médica o legal permanece intacta.






