y=f(x)在[a,b]上满足f(a)·f(b)<0,则y=f(x)在(a,b)内有零点.这句话是错的,但是我想知道错在哪里

问题描述:

y=f(x)在[a,b]上满足f(a)·f(b)<0,则y=f(x)在(a,b)内有零点.
这句话是错的,但是我想知道错在哪里

这个题目中没有说明f(x)在[a.b]上连续啊
零点定理只有在连续函数的情况下才可以使用!
希望能帮到你

必须是连续函数才是对的。
例如f(x)=1,若x≥0;f(x)=-1,若x那么显然f(1)f(-1)=-1

错在没有保证函数在[a,b]上连续,直观地说,就是能用笔从点(a,f(a))到点(b,f(b))一笔画画出函数在[a,b]上的图像.反例可举分段函数