los psicólogos intentan "reparar" los problemas de una sociedad ya rota.
La vida es injusta y cruel, siempre lo ha sido, esto no es nada nuevo. Los psicólogos, sé que son importantes en una sociedad y han salvado vidas, pero, honestamente, no puedo evitar pensar que nos manipulan... El mundo, si te lo pones a pensar, es terrible, esto no es una idea irracional, es la verdad. Los psicólogos intentan hacerte ver que la vida vale la pena, que, a pesar de los problemas, podemos superarlo y estar satisfechos con nuestra vida. ¿pero qué pasa si no puedo?¿qué pasa si no quiero? ¿qué pasa si ya no aguanto? ¿por qué estaría mal rendirse? Ellos, a pesar de haber estudiado mucho, no saben realmente cómo se siente la persona. No saben todo lo que ha vivido y como se sintió. Jamás podrán estar en su piel, no sé si me entienden.
¿Cómo decirle a una persona fea que no se sienta mal con su físico, cuando todos sabemos que la gente te trata como te ves? Solo deberías echar un vistazo alrededor y ver como la gente trata a los deformes, por ejemplo.
¿Cómo decirle a alguien que no se sienta mal por ser pobre, sabiendo que las personas tratan con asco y condescendencia al vagabundo?
¿Cómo decirle a alguien que tiene baja autoestima que no debería sentirse así, cuando sufrió bullying y desprecio por parte de una sociedad ya rota?
¿Cómo decirle a alguien "se tú mismo" si lo que recibe es puras burlas y críticas por eso mismo? ¿que quieren que seamos? ¿será que la culpa es nuestra o es el mundo el que debe cambiar?
Esto no lo hago con animos de forma una discusión, si quieres dar tu opinión, puede hacerlo siempre con respeto. Gracias por leer.