miércoles, 28 de agosto de 2013

video


Definicion

Definición de Trabajo Social

DEFINICIÓN
La profesión de Trabajo Social promueve el cambio social, la resolución de problemas en las relaciones humanas y el fortalecimiento y la liberación del pueblo para incrementar el bienestar. Mediante la utilización de teorías sobre comportamiento humano y los sistemas sociales, el Trabajo Social interviene en los puntos en los que las personas interactuan con su entorno. Los principios de los Derechos Humanos y la Justicia Social son fundamentales para el Trabajo Social.