Bonjour, voila j'ai un exo de maths j'ai réussi la 1ere partie mais je suis bloquée à la 2eme: f est définie sur [0; + infini[
f(u)=1-(1+u)e^-u
a)déterminer la dérivée .. donc je me suis servi de uv=u'v+uv' mais cela me donne rien
b) démontrer que pour tout u>0 , 0< f '(u) < u
c) étudier le sens de variation de u---> f(u)-(u^2)/2 sur [0; + infini[
en déduire que pour tout u>0 , 0<f(u) < (u^2)/2
A) dérivée de " f(u) " = - (1 + u)'e^-u - (1 + u).(e^-u)' = - e^-u - (1 + u).(- e^-u) = - e^-u + (1 + u).e^-u = u.e^-u .
b) Si " u " tend vers " 0 " , alors " e^-u " tend vers " 1 " ; par ailleurs, si " u " tend vers + l'infini, alors " e^-u " tend vers " 0 " (simples calculs de limites).
" e^-u " étant une exponentielle toujours décroissante, on comprend alors aisément que pour " u " compris entre " 0 " et + l'infini, " e^-u " est toujours comprise entre " 1 " et " 0 " ; et donc que si on la multiplie par " u " , elle est toujours comprise entre " u " et " 0 ".
Je vous laisse terminer.