#33 bueno, el vector gradiente es "una chorrada" como concepto. Si tienes una función definida de Rn en R, por ejemplo u(x1,x2,...,x3), puedes tomar sus derivadas parciales u_1,u_2,...,u_3 y sabes que la derivada direccional en el punto x respecto al vector v es (u_1,u_2,...,u_3)·v (es decir, u_1v_1+..+u_nv_n). Hasta aquí es lo mismo que la matriz jacobiana o cualquier definición de derivada direccional, sólo que en una dimensión. La gracia es que si coges superficies de nivel, es decir soluciones de u(x1,x2,...,x3) = c, tienes que la derivada direccional es 0 para cualquier vector tangente a esas superficies (porque la función no crece en esa dirección!!) por tanto el gradiente es perpendicular a dichas superficies. Además, para cualquier vector v de norma 1, tenemos:
|Derivada direccional de u respecto v| = | grad u · v | menor o igual que |grad u| (desigualdad de Cauchy-Schwarz) y sólo es igual cuando v es linealmente dependiente de grad u. Con lo cual en la dirección de grad u es hacia donde la derivada direccional es mayor. Es decir en cualquier punto la función crece y decrece más en la dirección del vector gradiente, y además dicho gradiente es perpendicular a la superficie de nivel constante de la función.
edit: No sé si esto es entendible, si no luego me extiendo en lo que te haya quedado poco claro...
#34 esto ya entra más en opiniones personales que en preguntas de matemáticas... xD