Abbiamo a, b, c, dinRR tale che ab = 2 (c + d) .Come dimostrare che almeno una delle equazioni x ^ 2 + ax + c = 0; x ^ 2 + bx + d = 0 hanno radici doppie?

Abbiamo a, b, c, dinRR tale che ab = 2 (c + d) .Come dimostrare che almeno una delle equazioni x ^ 2 + ax + c = 0; x ^ 2 + bx + d = 0 hanno radici doppie?
Anonim

Risposta:

L'affermazione è falsa.

Spiegazione:

Considera le due equazioni quadratiche:

# x ^ 2 + ax + c = x ^ 2-5x + 6 = (x-2) (x-3) = 0 #

e

# x ^ 2 + bx + d = x ^ 2-2x-1 = (x-1-sqrt (2)) (x-1 + sqrt (2)) = 0 #

Poi:

#ab = (-5) (- 2) = 10 = 2 (6-1) = 2 (c + d) #

Entrambe le equazioni hanno distinte radici reali e:

#ab = 2 (c + d) #

Quindi l'affermazione è falsa.