[go: up one dir, main page]

100% encontró este documento útil (1 voto)
595 vistas126 páginas

Libro de Algebra y Pre Fiuna

Este documento presenta material de teoría sobre álgebra y pre-cálculo. Contiene información sobre conjuntos, funciones, números, expresiones algebraicas y sistemas lineales, entre otros temas. El documento está dirigido a postulantes que rendirán exámenes de admisión a la universidad.

Cargado por

Ailem Monges
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
595 vistas126 páginas

Libro de Algebra y Pre Fiuna

Este documento presenta material de teoría sobre álgebra y pre-cálculo. Contiene información sobre conjuntos, funciones, números, expresiones algebraicas y sistemas lineales, entre otros temas. El documento está dirigido a postulantes que rendirán exámenes de admisión a la universidad.

Cargado por

Ailem Monges
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 126

Dirección de Admisión

Material de
Teoría:
Algebra y pre cálculo

Versión marzo de 2023


Algebra y Pre-Cálculo 2023

Los ejercicios publicados tienen el objetivo de suministrar a los postulantes una


guía que sirva como base de estudio a los postulantes que rendirán los exámenes de
admisión a la FIUNA a partir de la convocatoria 2023.

El contenido corresponde a la primera parte del programa de estudios conforme a la


Resolución CD N.º 1457/2022/006 “Por la cual se aprueban los programas de
las asignaturas del Curso Preparatorio de Ingeniería”

Editado por:
La Dirección de Admisión y la
Coordinación de Matemática de la Dirección del Departamento de Cursos
Básicos de la F.I.U.N.A.

Decano: Prof. Dr. Ing. Rubén López Santacruz


Director de Admisión: Prof. MSc. Ing. Néstor Barreto
Docente de Algebra y pre-cálculo: Dr. Ing. Inocencio Ortiz

Edificio Capitán Bozzano


(Ubicado a la entrada del campus de la UNA en San Lorenzo
sobre la Avda. Mcal. López)
Tel.: 021 729 0010 interno 1722 / 1723
admision@ing.una.py
www.ing.una.py
marzo de 2023
Contenido

1 Conjuntos y Funciones 1
1.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Relación de pertenencia y representaciónes de conjuntos . . . . . . . . . 2
1.1.2 Subconjuntos - Relación de inclusión e Igualdad de Conjuntos . . . . . . 3
1.1.3 Conjunto vacı́o - conjuntos finitos y conjuntos infinitos . . . . . . . . . . 6
1.1.4 Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.5 Ejercicios Adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Inyectividad, Sobreyectividad y Biyectividad . . . . . . . . . . . . . . . . 15
1.2.2 Composición de funciones - Inversas . . . . . . . . . . . . . . . . . . . . . 16
1.2.3 Ejercicios Adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Conjuntos Numéricos 20
2.1 Naturales y Enteros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.1 Divisibilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.2 Máximo común divisor - Algoritmo de Euclides . . . . . . . . . . . . . . 26
2.2 Racionales y Reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.1 La recta numérica real . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.2.2 Operaciones básicas con números reales . . . . . . . . . . . . . . . . . . . 39
2.3 Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.1 Representaciones de números complejos . . . . . . . . . . . . . . . . . . . 47
2.3.2 Fórmula de De Moivre - Raı́ces de la unidad . . . . . . . . . . . . . . . . 49

3 Expresiones y Funciones Algebraicas 51


3.1 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.1 Algoritmo de la división para polinomios . . . . . . . . . . . . . . . . . . 53

iv
3.1.2 Raı́ces y Teorema Fundamental del Álgebra . . . . . . . . . . . . . . . . 57
3.2 Funciones polinomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.1 Gráficas en el plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3 Funciones Racionales e Irracionales . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.3.1 Asintotas de funciones racionales . . . . . . . . . . . . . . . . . . . . . . 64
3.3.2 Funciones irracionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

4 Funciones Elementales no Algebraicas 69


4.1 Funciones Trigonométricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1.1 Funciones trigonométricas inversas . . . . . . . . . . . . . . . . . . . . . 73
4.2 Funciones exponenciales y logarı́tmicas . . . . . . . . . . . . . . . . . . . . . . . 76
4.3 Exponencial compleja y Trigonométricas hiperbólicas . . . . . . . . . . . . . . . 79

5 Combinatoria Básica 84
5.1 Principios fundamentales de conteo . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Arreglos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.1 Permutaciones - Variaciones - Combinaciones . . . . . . . . . . . . . . . 88
5.2.2 Arreglos con repeticiones . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.3 Binomio de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

6 Álgebra Matricial 94
6.1 Definición y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6.2 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6.2.1 Suma y producto por escalar . . . . . . . . . . . . . . . . . . . . . . . . . 96
6.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3 Algunas matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.3.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.3.1.1 Regla de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

7 Sistemas Lineales 108


7.1 Sistema lineal en Kn - Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.1.0.1 Sistema Triangular . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.1.1 Sistema de ecuaciones lineales en notación matricial . . . . . . . . . . . . 113
7.1.2 Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.1.2.1 Cálculo de determinantes . . . . . . . . . . . . . . . . . . . . . 116
7.1.3 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.1.3.1 Aplicación a la inversión matricial . . . . . . . . . . . . . . . . 119
CAPÍTULO 1

Conjuntos y Funciones

La teorı́a de conjuntos y sus relaciones constituyen actualmente el lenguaje básico de la matemática


(o al menos de una gran parte de la misma). Además de servir como lenguaje para la
matemática, la teorı́a de conjunto ofrece un terreno propicio para el ejercicio de la lógica desde
un punto de vista intuitivo. En cuanto a las relaciones entre conjuntos, un tipo especial de
enorme interés son las llamadas “funciones”. Esencialmente toda la matemática que se estu-
diará en una licenciatura en ingenierı́a se desarrolla en términos de conjuntos y funciones entre
conjuntos. En objetivo de este capı́tulo es establecer los conceptos básicos sobre conjuntos y
funciones y fijar la terminologı́a que será utilizada en el resto del curso. Este material, si bien
tiene ejemplos para ilustrar los conceptos discutidos, y algunos ejercicios resueltos y propuestos,
es eminentemente teórico, y deberá ser complementado con algunas de las bibliografı́as indi-
cadas en la referencia, principalmente en lo que respecta a fuentes de ejercicios y problemas.
Concretamente para el contenido desarrollado en este capı́tulo, podemos indicar los siguientes
textos [4, 9, 2, 6].

1.1 Conjuntos
El objetivo de esta sección no es un desarrollo axiomático de la teorı́a de conjuntos, sino apenas
el de establecer la noción de conjunto desde una base intuitiva, e introducir los conceptos
y terminologı́as más relevantes para nuestro propósito. La referencia estándar para lo que
comentaremos aquı́ es el libro Naive Set Theory, de Paul Halmos[4]. Incluso en dicho libro,
como su nombre lo indica, el autor no pretende el desarrollo completamente axiomático del
tema, pero mismo ası́, es mucho más exhaustivo de lo que cubriremos aquı́.

1
1.1.1 Relación de pertenencia y representaciónes de conjuntos
Usaremos el término conjunto para referirnos a una colección de objetos que, por determinadas
caracterı́sticas compartidas, los identificamos como miembros de un mismo grupo. El lector
puede imaginar, como ejemplo, una colección de sillas que hay en su casa, o una colección de
números con determinada propiedad. En el primer caso los objetos son concretos (las sillas),
mientras que en el segundo caso los objetos son abstractos (números que satisfacen alguna
propiedad). En el estudio de las matemáticas, especialmente en su desarrollo teórico, lo más
frecuente es que los objetos considerados sean abstractos.
La relación fundamental entre los objetos que conforman un conjunto, y el conjunto mismo,
es el de pertenencia. Ası́, si denotamos un determinado conjunto mediante el sı́mbolo A, y
mediante x uno cualquiera de los objetos que conforman A, decimos que x es un elemento de
A, o que x pertenece a A. Denotamos dicha situación mediante el sı́mbolo

x ∈ A.

También es común usar las expresiones “x es perteneciente a A”, o “x está en A”.


Cuando un determinado objeto, digamos y, no cumple las condiciones para ser elemento de
A, usaremos la notación
y∈/ A,

que se lee “y no pertenece a A”, o “y no está en A”, o alguna otra expresión suficientemente
clara para indicar la misma idea.
La forma más usual de representar (o expresar) un determinado conjunto es colocando
entre llaves ya sea la lista explı́cita de sus elementos, o la la(s) propiedad(es) que define(n) a
sus elementos. En el primer caso, decimos que el conjunto está representado por extensión, y
en el segundo caso, decimos que el conjunto está representado por comprensión.
Por ejemplo, el conjunto
X = {2, 4, 6, 10},

está representado por extensión, en tanto que el conjunto

P = {números positivos pares},

está representado por comprensión.


Para la representación por comprensión a veces se usa también la siguiente notación

A = {x; x satisface la propiedad Q}.

Aquı́, x denota el objeto y Q denota una o varias propiedades que el objeto x debe satisfacer para
ser un elemento de A. Para ilustrar esto, podemos considerar que Q es la propiedad: “número

2
par positivo”. Entonces, el mismo conjunto P descrito anteriormente puede representarse como

P = {x; x satisface Q}

Notemos que en este ejemplo, Q representa de hecho una colección de propiedades, a saber: x
debe ser un número, debe ser positivo y debe ser par.

Ejercicio 1.1.1. Determine en cada caso si el conjunto está representado por extensión o por
comprensión.

a) A = {+, 6, #, @}.

b) X = {caracteres del alfabeto español}.

c) {x; x es un teléfono celular fabricado antes del año 2000}.

En varias ocaciones es muy útil una representación gráfica de los conjuntos. Estos diagramas
conocidos como diagramas de Venn-Euler, consisten de figuras (elı́pses, cı́rculo, poligonales
cerradas), y sus elementos pueden etiquetarse explı́citamente dentro de la figura, o bien ser
descritas mediante la(s) propiedad(es) que los definen. Es decir, las representaciones por ex-
tensión y por comprensión pueden igualmente combinarse con los diagramas de Venn-Euler,
como se ilustra en la Figura 1.1.

Figure 1.1: Diagramas de Venn-Euler

1.1.2 Subconjuntos - Relación de inclusión e Igualdad de Conjuntos


En muchas situaciones queremos hacer referencia a varios elementos que pertenecen a determi-
nado conjunto, pero no a todos los elementos del conjunto. Por ejemplo, en el conjunto

P = {números positivos pares},

3
podemos estar interesados en aquellos que son mayores que 6. Podemos, por ejemplo, escribir:

P6 = {x ∈ P ; x > 6}.

Lo cual se puede leer como: “P6 es el conjunto conformado por elementos de P que son mayores
que 6”.
En este caso, hemos definido el conjunto P6 especificando que sus elementos son aquellos
elementos de P que son mayores que 6. Observamos entonces el hecho obvio de que todo
elemento de P6 es también un elemento de P , y decimos que P6 es un subconjunto de P .
En un caso general, dado un conjunto X, diremos que otro conjunto Y es un subconjunto
de X si todo elemento de Y es también elemento de X. Denotaremos tal situación mediante

Y ⊆ X.

Una notación diferente para expresar la misma situación es:

u ∈ Y =⇒ u ∈ X,

donde el sı́mbolo =⇒ se lee “implica”. La expresión completa puede leerse de diferentes


formas, como por ejemplo: “u en Y implica u en X”, o bien “si u pertenece a Y , entonces u
pertenece a X”.

Ejemplo 1.1.2. Consideremos los conjuntos

X = {automóviles registrados en el territorio paraguayo.}

y
Y = {automóviles registrados en el territorio paraguayo, y están asegurados.}

En este caso, está claro que los elementos del conjunto Y satisfacen la condición para ser
también elementos del conjunto X, y por lo tanto podemos afirmar que Y es un subconjunto de
X, y denotarlo como Y ⊆ X.

En lugar de decir que Y es subconjunto de X, también podemos decir que “Y está contenido
en X”, o que “X contiene a Y ”, o que “Y está incluido en X”. Observemos que para cualquier
conjunto Y siempre se tiene Y ⊆ Y . Observemos también que la condición “todo elemento de
Y es también elemento de X” no prohı́be que Y sea el propio X. Si necesitamos hacer énfasis
en el caso en que no todo elemento de X pertenece a Y , usaremos la notación

Y ⊂ X,

la cual se lee “Y es subconjunto propio de X”. También se usa la expresión: “Y está es-
trictamente incluido en X”. Retomando los ejemplos anteriores, podemos afirmar que P6 es

4
subconjunto propio de P . También, sabemos que existen automóviles registrados en el territo-
rio paraguayo, pero no están asegurados, por tanto, también podemos afirmar que Y ⊂ X en
el Ejemplo 1.1.2.
En varias situaciones estaremos trabajando con varios subconjuntos de un mismo conjunto.
En tales situaciones es usual llamar conjunto universal al conjunto que contiene a todos
los subconjuntos que estamos considerando. Por ejemplo, en determinada situación podemos
estar trabajando exclusivamente con números enteros positivos, que denotaremos mediante el
sı́mbolo N, y entonces este será el conjunto universal. Sin embargo, si pasamos a analizar
números enteros negativos, el conjunto N deja de ser el universal, y dicho estatus lo puede
tomar el conjunto de números enteros, que denotaremos mediante Z.
Dados dos conjuntos U y W , diremos que son iguales si U ⊆ W y W ⊆ U , es decir, si todo
elemento de U es elemento de W y todo elemento de W es elemento de U . Esto es relevante en
muchas situaciones en matemáticas, en que se obtienen dos conjuntos mediante descripciones
diferentes de sus elementos, pero que en realidad son lo mismo. Entonces, para establecer la
igualdad, por lo general se intenta establecer la inclusión en ambos sentidos (también llamado
doble inclusión). Considere como ejemplo los conjuntos

A = {Triángulos que tienen sus tres lados iguales}

y
B = {Triángulos que tienen sus tres ángulos internos iguales}.

Resulta que estos conjuntos, a pesar de estar definidos por propiedades diferentes, son de hecho
iguales, pues puede demostrarse que todo triángulo equilátero tiene también iguales sus tres
ángulos internos. En sı́mbolos, describimos esta situación como:

A = B,

es decir, x ∈ A =⇒ x ∈ B y x ∈ B =⇒ x ∈ A. Para abreviar, es común describir esta


situación mediante
x ∈ A ⇔ x ∈ B,

donde el sı́mbolo de doble implicación, ⇔, se lee “si, y sólo si”. Ası́, podemos leer la expresión
completa como: “x pertenece a A si, y sólo si, x pertenece a B”.
Para cerrar esta sección, enunciaremos una Proposición (afirmación que debe ser justificada)
que resume las propiedades más relevantes de la relación de inclusión.

Proposición 1.1.3. La relación de inclusión ⊆ satisface las siguientes propiedades

a) Es reflexiva. Esto quiere decir que, para cualquier conjunto A, se tiene A ⊆ A.

b) Es antisimétrica. Esto quiere decir que, dados dos conjuntos A y B, si A ⊆ B y B ⊆ C,


entonces A = B.

5
c) Es transitiva. Esto quiere decir que, dados tres conjuntos A, B y C, si A ⊆ B y B ⊆ C,
entonces A ⊆ C.

Observación 1. Las Proposiciones (y Teoremas) son afirmaciones que deben ser “probadas”
o “demostradas”. Una prueba, o demostración, es un argumento que justifica la veracidad de
la afirmación, generalmente reduciendo la afirmación hecha a otras previamente establecidas,
o cuyas veracidades son evidentes o fueron tomadas como definición. A modo de ejemplo,
escribiremos una prueba de la Proposición 1.1.3.

Prueba. Procederemos a analizar cada ı́tem por separado.

a) La veracidad de esta afirmación ya la hemos observado, y es bastante evidente a partir de


la definición de lo que significa el sı́mbolo ⊆. En efecto, si tomamos cualquier elemento
x ∈ A (del lado izquierdo del sı́mbolo ⊆), entonces ese mismo elemento pertenece a A (del
lado derecho del sı́mbolo ⊆), y esa es la única condición que necesitamos para afirmar la
inclusión indicada.

b) La segunda propiedad es de hecho nuestra definición de igualdad. Es decir, es verdad


porque nosotros queremos que la igualdad de dos conjuntos signifique precisamente esa
inclusión en ambos sentidos.

c) La tercera propiedad ya es más interesanete. Debemos argumentar que tomando cualquier


elemento x ∈ A, dicho elemento pertenece a C. Para ello, podemos argumentar como
sigue. Dado que A ⊂ B, sabemos que x ∈ A implica x ∈ B. Ahora, dado que B ⊆ C,
sabemos que x ∈ B implica x ∈ C. Ası́, conectando las dos implicaciones, podemos
concluir que x ∈ A implica x ∈ C.

Observación 2. La prueba que acabamos de escribir es más extensa de lo que realmente merece.
Las afirmaciones como las del ı́tem a) y b) suelen argumentarse simplemente con “esto es obvio”
y “esto es por definición”. Si para usted la afirmación del ı́tem a) no es obvia, tómese un tiempo
para volver a leerla detenidamente, y lea también la definición de inclusión. El ejercicio mental
de llegar a convencerse de que realmente es obvia es productivo.

1.1.3 Conjunto vacı́o - conjuntos finitos y conjuntos infinitos


Puede ocurrir que especifiquemos las propiedades que ciertos objetos deben satisfacer para
conformar un conjunto, pero que no exista ningún objeto que satisfaga dichas propiedades.
Esto nos conduce a la noción de conjunto vacı́o, el cual denotaremos mediante el sı́mbolo ∅.
Ası́, el conjunto vacı́o es es un conjunto “sin elementos”, que podemos representar como

∅ = {x; x satisface la propiedad Q},

6
donde Q es una propiedad imposible para cualquier objeto. Por ejemplo, podrı́amos considerar

∅ = {x; x ̸= x}.

Es decir, la propiedad (imposible) que exigimos es que el objeto x no sea igual a sı́ mismo.
Como ejemplo menos abstracto, podemos considerar

∅ = {x ∈ N; x2 = −1}.

Aquı́, la propiedad imposible es que el cuadrado de un número natural resulte en el negativo


de 1.

Observación 3. Puede parecer un artificio innecesario preocuparse por definir y dar una no-
tación para una colección de objetos que ningún objeto puede satisfacer. Si usted siente que
es un artificio innecesario, piense que algo muy similar ocurre con el número cero (que deno-
tamos usualmente como 0). Este es un número que representa la ausencia de cantidad, y su
introducción al sistema numérico fue relativamente reciente en la historia del desarrollo de los
sitemas numéricos. Pero artificial como parecı́a en su momento, su introducción representó
una enorme propulsión al desarrollo de la aritmética, del álgebra, y de la matemática en gen-
eral. Tendremos ocasión en este curso de ver algunas situaciones en que el conjunto vacı́o nos
permite capturar con precisión ideas interesantes.

Ejercicio 1.1.4. Argumente que, para cualquier conjunto X, se tiene ∅ ⊆ X.

Para cerrar esta sección, daremos una definición intuitiva de lo que son los conjuntos finitos
y los conjuntos infinitos. Una definición más rigurosa será abordada cuando hayamos discutido
el concepto de función y hayamos desarrollado más familiaridad con las propiedades de los
números naturales.
Diremos que un conjunto A es finito si es vacı́o o si podemos listar todos sus elementos.
Caso contrario, es infinito. Expliquemos por qué esta “definición” no es rigurosa. Primero
está el significado de la palabra “listar”, pero asumiremos que entendemos intuitivamente lo
que eso significa. Más delicada es la condición “si podemos listar”, pues aquı́, “poder” se refiere
a una posibilidad que en la práctica podrı́a ser imposible. Por ejemplo, a partir de la definición
rigurosa, se puede concluir que el conjunto de estrellas en el universo observable es finito, sin
embargo, escapa a la capacidad (real) de cualquier persona el listar todos los elementos del
mencionado conjunto. Ası́, la posibilidad de listar al que se hace referencia en esta definición
intuitiva es una posibilidad matemática. Decimos entonces que un conjunto es finito si “en
principio podemos listar” todos sus elementos. Aquı́, la expresión “en principio” enfatiza que
en la práctica puede ser imposible realizar dicho listado.

7
1.1.4 Operaciones con conjuntos
Consideremos ahora dos conjuntos, digamos X e Y , entonces podemos estar interesados en
aquellos elementos que pertenecen tanto a X como a Y . Para ello definimos la intersección
de X e Y , mediante
X ∩ Y := {u; u ∈ X, y u ∈ Y },

donde el sı́mbolo := significa que lo que está a su derecha es la definición de lo que está a su
izquierda. Notemos que la “y” cumple su papel usual de conjunción copulativa.
Ilustremos esto con un ejemplo. Sea X el conjunto de triángulos isosceles y sea Y el conjunto
de triángulos rectángulos. Entonces X ∩Y es el conjunto de triángulos rectángulos cuyos catetos
son iguales.
Está claro que podemos estar interesados en la intersección de más de dos conjuntos. Consi-
deremos entonces que tenemos una familia de conjuntos Xλ , donde λ es un “ı́ndice” o “etiqueta”
que nos permite identificar a cada conjunto de la familia. Supongamos que λ pertenece a un
conjunto L, que llamaremos conjunto de ı́ndices. Entonces definimos la intersección de todos
los Xλ como \
Xλ := {u; u ∈ Xλ , ∀λ ∈ L},
λ∈L
T
donde el sı́mbolo ∀ se lee “para todo”. Ası́, en palabras, el conjunto λ∈L Xλ está conformado
por los objetos que pertenecen a todos los Xλ .
Cuando dos conjuntos X e Y no tienen elementos en común, decimos que son disjuntos.
Este es uno de los primeros conceptos que podemos capturar elegantemente con la idea de
conjunto vacı́o. En efecto, podemos decir que dos conjuntos X e Y son disjuntos si, y sólo si,

X ∩ Y = ∅.

Lo cual captura de forma precisa la idea de que dichos conjuntos no tienen elementos en
común.

Ejercicio 1.1.5. En cada caso, determina el conjunto intersección indicada

a) A = {x; x es un entero positivo}, B = {x ∈ Z; x < 10}. Determinar A ∩ B.

b) A = {Ciudadanos paraguayos con salario superior al sueldo mı́nimo},


B = {Ciudadanos paraguayos menores de 30},
C = {Ciudadanos paraguayos empleados en el sector privado}. Determine (A ∩ B) ∩ C y
A ∩ (B ∩ C).

Ejercicio 1.1.6. Demuestre las siguientes propuidades de la intersección de conjuntos

a) A ∩ (B ∩ C) = (A ∩ B) ∩ C.

b) A ∩ B = B ∩ C.

8
c) A ∩ ∅ = ∅.

Consideremos ahora una situación en que tenemos un par de conjuntos, digamos X e Y, y


estamos interesados en los objetos que, o bien pertenezcan a X, o bien pertenezcan a Y . Esto
nos lleva al concepto de “unión” de conjuntos. Definamos dicho concepto directamente para
el caso general de una familia de conjuntos. Ası́, si Xλ es una familia de conjuntos, con λ en
cierto conjunto de ı́ndices L, definimos la unión de los conjuntos de esta familia como
[
Xλ := {u; u ∈ Xλ , para algún λ ∈ L}.
λ∈L

S
Ası́, para que un objeto pertenezca a λ∈L Xλ , basta que pertenezca a al menos uno de los
conjuntos Xλ .

Ejercicio 1.1.7. En cada caso, determine la unión de conjuntos indicada.

a) A = {x ∈ Z; x < 0}, B = {x ∈ Z; x > 0}. Determine A ∪ B.

b) A = {Gatos mascotas residentes en Asunción},


B = {Perros mascotas residentes en Asunción}.
Determine A ∪ B.

c) A = {a, b, c, d, e, f }, B = {g, h, i, z}, C = {2, 4, 6}. Determine (A ∪ B) ∪ C y A ∪ (B ∪ C).

Ejercicio 1.1.8. Demuestre las siguientes propiedades de la unión de conjuntos.

a) A ∪ (B ∪ C) = (A ∪ B) ∪ C.

b) A ∪ B = B ∪ C.

c) A ∪ ∅ = A.

Si tenemos un subconjunto X ⊆ Y , podemos estar interesados en los elementos que están en


Y pero no en X. Eso nos lleva al concepto de complemento” de un subconjunto. En concreto,
el complemento de X en relación a Y se define como

XYC := {u ∈ Y ; u ∈
/ X}.

En muchas ocasiones el conjunto ambiente es un conjunto que está fijo, y no es necesario


mencionarlo. En tales situaciones se habla simplemente del “complemento de X”, sin hacer
referencia en relación a qué conjunto se toma dicho complemento. Por ejemplo, supongamos
que estamos trabajando con números enteros, el cual se denota mediante Z, y dentro del mismo,
consideramos el conjunto N, de los números naturales (enteros mayores o iguales que 1). En tal
caso, podrı́amos indicar mediante NC el complemento de N, el cual serı́an los enteros negativos
junto con el cero. Sin embargo, si en el mismo contexto estamos considerando el conjunto de
los reales, denotado R, no estarı́a claro hablar simplemente del complemento de N, pues no se

9
obtiene el mismo conjunto si dicho complemento lo tomamos respecto de R que si lo tomamos
respecto de Z. En tal caso, será útil la notación más especı́fica, como por ejemplo NC
Z o bien
C
NR .
Un resultado importante en la teorı́a de conjuntos, que relaciona la unión y la intersección
con el complemento, es la Ley de De Morgan.

Teorema 1.1.9 (Leyes de De Morgan). Consideremos dos subconjuntos A, B, de un conjunto


E, entonces se cumples las siguientes relaciones:

1. (A ∪ B)C = AC ∩ B C .

2. (A ∩ B)C = AC ∪ B C .

Prueba. 1. Consideremos un elemento x ∈ (A ∪ B)C . Esto significa que x no pertenece ni a


A ni a B. Esto significa que x ∈ AC y x ∈ B C . Esa es exactamente la condición para ser
un elemento de AC ∩B C . Asi, hemos establecido la inclusión (A∪B)C ⊆ AC ∩B C . Para la
inclusión en el otro sentido, consideremos un elemento x ∈ AC ∩B C . Esto quiere decir que
x no es elemento de A y tampoco es elemento de B. Entonces, podemos afirmar que x no
pertenece a la unión A∪B, o sea, x ∈ (A∪B)C . Esto demuestra que AC ∩B C ⊆ (A∪B)C .

2. Ejercicio.

Un concepto relacionado al complemento de un conjunto en relación a otro es el de diferencia


de conjuntos. Consideremos dos conjuntos X e Y , la diferencia X \ Y se define como

X \ Y := {u; u ∈ X y u ∈
/ Y }.

Ejercicio 1.1.10. Verifique que cuando Y ⊆ X, se tiene X \ Y = YXC .

Ası́, el concepto de diferencia generaliza el de complemento en el sentido que para hablar


de diferencia entre dos conjuntos no es necesario que un conjunto sea subconjunto del otro, lo
cual sı́ era parte de la definición de complemento.
Podemos combinar ahora las nociones de diferencia de conjuntos y unión de conjuntos para
introducir otra operación más, conocida como diferencia simétrica. Dados dos conjuntos A
y B, su diferencia simétrica se define como

A∆B := (A \ B) ∪ (B \ A).

Ejemplo 1.1.11. Consideremos los conjuntos A = {x ∈ Z; x2 ≤ 16} y B = {x ∈ N; x ≤ 10}.


Observemos primero que
A = {−4, −3, −2, −1, 0, 1, 2, 3, 4}

en tanto que
B = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}.

10
Figure 1.2: Diferencia simétrica en Diagrama de Venn-Euler

Entonces tenemos

A∆B = {−4, −3, −2, −1, 0} ∪ {5, 6, 7, 8, 9, 10} = {−4, −3, −2, −1, 0, 5, 6, 7, 8, 9, 10}.

Notemos en este ejemplo que

B∆A := (B \ A) ∪ (A \ B) = {−4, −3, −2, −1, 0, 5, 6, −7, 8, 9, 10} = A∆B.

La igualdad de A∆B y B∆A del ejemplo anterior no es casualidad. Esto se tiene en general,
como puede observarse fácilmente del hecho que la unión es simétrica (Ejercicio 1.1.8, ı́tem b)).
Este ejemplo también ilustra que A∆B comprende los elementos de la unión menos aquellos
de la intersección. Grágicamente, esto puede apreciarse fácilmente mediante los diagramas de
Venn-Euler, como se puede ver en la Figura 1.2, donde la diferencia simétrica de los conjuntos
indicados está conformada por la parte sombreada. Ofrezcamos un argumento formal para esta
observación.

Ejercicio 1.1.12. Muestre que A∆B = (A ∪ B) \ (A ∩ B).


En efecto, consideremos un elemento x ∈ A∆B, entonces de la definición tenemos que x está
ya sea en A \ B o bien en B \ A. Supongamos el primer caso, es decir que x ∈ A \ B, lo
cual significa que x ∈ A pero x ∈ / B. Ası́, tenemos x ∈ A ∪ B pero x ∈ / A ∩ B, lo cual
significa que x ∈ (A ∪ B) \ (A ∩ B). Un argumento análogo sirve si suponemos que se da el
caso x ∈ B \ A(proporcione el argumento!). Esto muestra la inclusión “⊆”.
Para la inclusión en el otro sentido, tomemos un x ∈ (A ∪ B) \ (A ∩ B). Esto significa que x
está en la unión de A y B pero no está en su intersección. En particular, o bien pertenece a A
o bien pertenece a B, pero no a ambos. Supongamos que pertenece a A, entonces no pertenece
a B y podemos afirmar que x ∈ A \ B. En tal caso, tenemos x ∈ (A \ B) ∪ (B \ A) y tenemos la
inclusión deseada. Si tenemos el caso x ∈ B pero x ∈ / A, el argumento es similar (verifı́quelo!).

Observación 4. El ejercicio precedente ilustra algo que vale la pena comentar. La inter-
pretación gráfica de la diferencia simétrica es extremadamente simple y clara, sin embargo, una
figura no constituye una prueba. Esto se debe a que en muchas situaciones las interpretaciones
gráficas pueden “engañarnos”, y sólo un análisis riguroso nos permite “evitar” el engaño. Es un

11
buen ejercicio argumentar rigurosamente sobre conceptos que son intuitivamente claros, pues
esto afila la mente para buscar los argumentos rigurosos cuando el concepto no es intuitivo, o
la intuición podrı́a estar errada.

Para ir cerrando esta introducción a la teorı́a de conjuntos, introduzcamos dos conjuntos


más que se obtienen a partir de otros conjuntos dados, y serán de gran relevancia en desar-
rollos posteriores. El primero consiste en, dado un conjunto A considerar otro conjunto cuyos
elementos son los subconjuntos de A. Lo llamaremos conjunto de partes de A (también es
común llamarlo conjunto potencia de A), y lo denotaremos como P(A). Es decir, tenemos

P(A) := {x; x ⊆ A}.

Ejemplo 1.1.13. Consideremos el conjunto A = {a, b, c}. Entonces tenemos

P(A) = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.

Por último, veamos el producto cartesiano de conjuntos. Para ello, consideremos conjuntos
X1 , X2 , . . . , Xr , entonces, su “producto cartesiano” es el conjunto

X1 × X2 × · · · × Xr := {(u1 , u2 , . . . , ur ); ui ∈ Xi , para i = 1, 2, . . . , r}.

Es decir, es el conjunto cuyos elementos son todas las listas ordenadas de r objetos, tal que
el i-ésimo es elemento de Xi , para todos los valores posibles del ı́ndice i. Por ejemplo, si X1
es el conjunto de sı́mbolos del alfabeto castellano, y X2 = N, entonces (a, 2) ∈ X1 × X2 , pero
(2, a) ∈/ X1 × X2 . Tampoco (b, π) es un elemento de X1 × X2 , pues π ∈ / X2 = N.
Cuando tenemos apenas dos conjuntos, A y B, puede ser útil representar gráficamente el
producto cartesiano A × B como un rectángulo cuya base es A y cuya altura es B. Entonces
los elementos de A × B se pueden identificar con puntos dentro de dicho rectángulo. Un caso
de especial interés para nosotros será cuando A = B = R. En ese caso, usamos la notación
R × R = R2 , y el rectángulo correspondiente es un plano infinito. En dicho plano es usual trazar
dos rectas perpendiculares, una por cada factor R, y se lo conoce como plano cartesiano. Cabe
mencionar que el término plano cartesiano implica algunas consideraciones técnicas adicionales,
que iremos viendo oportunamente.
Nota: La existencia del producto cartesiano de una familia arbitraria de conjuntos es
equivalente al axioma de elección. Para nuestros propósitos es suficiente considerar el caso de
una colección finita de conjuntos, como lo hicimos acá. El lector interesado en profundizarlo
puede consultar [4].

1.1.5 Ejercicios Adicionales


1. En este problema, consideraremos que todos los conjuntos involucrados son subconjuntos
de un mismo conjunto universal E, respecto del cual se toman los complementos.

12
1. (AC )C = A.

2. A ⊆ B =⇒ B C ⊆ AC .

3. A = ∅ ⇔ AC = E.

2. Demuestre las siguientes propiedades

1. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ B).

2. A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).

3. Considere dos conjuntos A y B. Muestre que A ∪ B es el menor conjunto que contiene


tanto a A como a B. Esto es: Si Y es un conjunto tal que A ⊆ Y , B ⊆ Y , entonces A ∪ B ⊆ Y .

4. Considere dos conjuntos A y B. Muestre que A ∩ B es el mayor conjunto contenido tanto


en A como en B. Esto es: Si Y es un conjunto tal que Y ⊆ A, Y ⊆ B, entonces Y ⊂ A ∩ B.

5. Dados dos conjuntos A y B, defina

A∆B := (A \ B) ∪ (B \ A).

Muestre que A∆B = A∆C implica B = C.

6. Pruebe las siguientes afirmaciones

1. (A ∪ B) × C = (A × C) ∪ (B × C).

2. (A ∩ B) × C = (A ∩ C) × (B ∩ C).

3. (A \ B) × C = (A × C) \ (B × C).

4. A ⊆ A′ , B ⊂ B ′ =⇒ A × B ⊆ A′ × B ′ .

1.2 Funciones
Dados dos conjuntos, A y B, una función de A en B es un subconjunto F ⊆ A × B, de tal
forma que para cada a ∈ A, existe un único elemento b ∈ B tal que (a, b) ∈ F . El conjunto A
se llama dominio de la función, y el conjunto B se llama codominio de la función.
Si graficamos en un plano el producto cartesiano A × B como un rectángulo cuya base
representa al conjunto A y cuya altura representa al conjunto B, la condición especificada para
que el subconjunto F ⊆ A × B sea una función es que cualquier lı́nea vertical que atraviesa el
rectángulo, debe contener exactamente 1 elemento de F (ver Figura 1.3).

13
Figure 1.3: Representación gráfica de una función

Dada una función F ⊆ A × B podemos designar mediante f una regla de asignación tal
que, dado a ∈ A, la regla f determina el único elemento b ∈ B tal que (a, b) ∈ F . Podemos
indicar dicha determinación mediante f (a), e introducir la notación más usual de función:

f : A → B.

En esta notación, es usual referirse a f como “la función”, sin embargo, es importante
recordar que una función es más que la regla especificada por f , pues los conjuntos A (dominio)
y B(codominio) son parte de la definición. También, cuando se expresa la función en la forma
f : A → B, es usual referirse al correspondiente subconjunto F ⊂ A × B como el gráfico de
f . Dada una función f : A → B, tenemos

F = graf (f ) = {(a, f (a); a ∈ A)}.

Dada una función f : A → B y un elemento x ∈ A, en la notación f (x) diremos que x ∈ A


es el argumento de la función f y que f (x) ∈ B es la imagen de x bajo f , o simplemente
imagen de x, si no hay riesgo de confusión. Si X ⊆ A es un subconjunto, su imagen bajo f ,
o simplemente su imagen es el conjunto

f (X) := {f (x) ∈ B; x ∈ X}.

Es decir, son todos los elementos de B que son imágenes de elementos de X.

Observación 5. Cuando X = A, es común la notación Im(f ), en lugar de f (A), y se lo


llama “la imagen de f ”. Debe tenerse en mente, sin embargo, que la imagen involucra tanto el
conjunto como la regla de asignación. La notación Im(f ), junto con la terminologı́a “imagen
de f ” es práctica en muchas situaciones, pero debe evitarse si hay riesgo de confusión.

Dado un elemento y ∈ B, cualquier elemento x ∈ A tal que y = f (x) se llama preimagen

14
de y bajo f , o simplemente preimagen de y, si no hay riesgo de confusión. Notemos que,
dado x ∈ A, dicho elemento tiene una única imagen f (x) ∈ B, sin embargo, dado y ∈ B,
dicho elemento puede no tener preimagen, o puede que tenga una sola preimagen, o puede que
tenga varias preimágenes. Se usa la notación f −1 (y) para referirse al subconjunto de A cuyos
elementos son las preimágenes de y. Si Y ⊆ B es un subconjunto, su preimagen bajo f , o
simplemente su preimagen, es el conjunto

f −1 (Y ) := {x ∈ A; f (x) ∈ Y }.

Esto es, son todos los elementos de A tales que la regla f les asigna algún elemento en Y .

Ejemplo 1.2.1 (Función identidad). Dado un conjunto A, podemos considerar la función


IA : A → A, que se define mediante la regla

IA (x) = x.

Esto es, a cada elemento x ∈ A la regla IA le asigna el propio elemento x.

Ejemplo 1.2.2. Consideremos el conjunto A = {ciudadanos paraguayos de hasta 20 años de edad}.


Dado un elemento x ∈ A, sea P (x) su peso en kilogramos. Podemos ver esto en notación fun-
cional como P : A → R. Ası́, el dominio es el conjunto de ciudadanos especificado, el codominio
es el conjunto de números reales, y la regla P es la asignación del peso en kilogramos de cada
elemento del dominio. Notemos en este caso que no todo elemento del codominio es ima-
gen de algún elemento del dominio, pues, ciertamente ningún número negativo será el peso
de ningún elemento de A, pero además es razonable suponer que ningún elemento de A tendrá
500[Kg]. Por otro lado, tomemos y = 30 ∈ R, entonces P −1 (y) serı́a el conjunto de ciudadanos
paraguayos que pesan 30[kg]. Este conjunto podrı́a ser vacı́o (nadie pesa 30[Kg]), podrı́a tener
un único elemento (hay un único ciudadano paraguayo que pesa 30[Kg]), o podrı́a tener varios
elementos (varios ciudadanos paraguayos pesan 30[Kg]). Por último, podemos considerar por
ejemplo el subconjunto Y = [20, 30] ⊂ R, que denota todos los números reales desde 20 hasta
30. Entonces P −1 (Y ) ⊂ A serı́a el conjunto de todos los ciudadanos paraguayos cuyo peso está
entre 20[Kg] y 30[Kg].

1.2.1 Inyectividad, Sobreyectividad y Biyectividad


Consideremos una función f : A → B. Decimos que dicha función es inyectiva si para cada
elemento y ∈ Im(f ), el conjunto f −1 (y) ⊆ A contiene un solo elemento. Esto es equivalente a
afirmar que, dados x ̸= y ∈ A, entonces f (x) ̸= f (y), y también es equivalente afirmar que, si
f (x) = f (y) ∈ B, entonces debemos tener x = y ∈ A.

Ejemplo 1.2.3. Denotemos por R+ el conjunto de números reales mayores que cero, y consi-
deremos la función f : R+ → R dada por f (x) = x2 . Esta función es inyectiva, pues, dados
x ̸= y ∈ R+ , tenemos f (x) = x2 ̸= y 2 = f (y).

15
Diremos que la función f : A → B es sobreyectiva si Im(f ) = B (recuerde que Im(f ) =
f (A)). Esto equivale a afirmar que todo elemento de B tiene preimagen.

Ejemplo 1.2.4. Sea f : R+ → R+ , dada por f (x) = x2 . Esta función es sobreyectiva, pues
√ √
dado cualquier y ∈ R+ , su raı́z cuadrada, x = y ∈ R+ , satisface f (x) = x2 = ( y)2 = y.

Finalmente, diremos que la función f : A → B es biyectiva si es inyectiva y sobreyectiva.


Esto equivale a decir que todo elemento de B tiene exactamente una preimagen.

Ejemplo 1.2.5. Consideremos la función f : R → R; f (x) = x3 . Esta función es biyectiva,


pues cualquier y ∈ R tiene exactamente una preimagen bajo f , la cual está dada por la raiz

cúbica x = 3 y.

1.2.2 Composición de funciones - Inversas


Consideremos dos funciones: f : A → B, y g : C → D. Supongamos que f (A) ⊆ C. En ese
caso, para cualquier x ∈ A, su imagen, f (x), es un elemento de C, que siendo el dominio de g
nos permite evaluar la función g en f (x). Ası́, obtendremos g(f (x)) ∈ D. El proceso completo
define entonces una función de A en D, que llamaremos compuesta de f y g, y lo denotaremos
mediante
g ◦ f : A → D.

Ejercicio 1.2.6. Muestre que Im(g ◦ f ) ⊆ Im(g). Ilustre con un ejemplo un caso de inclusión
estricta.

Es claro que podemos componer más de dos funciones, desde que se den las condiciones de
inclusión apropiadas. Por ejemplo, si h : E → F es una tercera función, tal que Im(g ◦ f ) ⊆ E,
entonces podrı́amos considerar la función

h ◦ (g ◦ f ) : A → F, (1.1)

definida mediante la asignación x 7→ h(g(f (x))).


Por otro lado, si tenemos la condición Im(g) ⊆ E, podrı́amos definir la función h◦g : C → F ,
mediante y 7→ h(g(y)). Dado que ya tenı́amos Im(f ) = f (A) ⊆ C, podrı́amos también definir
la función
(h ◦ g) ◦ f : A → F, (1.2)

mediante x 7→ h(g(f (x))).


Cómo podrı́amos comparar las dos funciones (1.1) y (1.2)? Notemos que ambas tienen el
mismo dominio, el mismo codominio, y la misma regla de asignación x 7→ h(g(f (x))). En estas
condiciones, podrı́amos afirmar que las dos funciones son iguales. Eso de hecho es ası́, pero con
una observación importante: las dos funciones deben existir para poder ser iguales. Elaboremos
un poco más sobre eso. Notemos que la condición Im(g ◦ f ) ⊆ E es más débil que la condición

16
Im(g) ⊆ E, en el sentido de que la primera podrı́a darse sin que se tenga la segunda, pero si se
tiene la segunda, necesariamente se tendrá la primera (ver Ejercicio 1.2.6). Eso significa que,
si estamos en un caso en que tenemos Im(g ◦ f ) ⊆ E, pero no tenemos Im(g) ⊆ E, entonces
la función (1.1) existe, pero la función (1.2) no, ası́ que no tendrı́a sentido plantear que sean
iguales. Sin embargo, si tenemos la condición Im(g) ⊆ E, también tendremos la condición
Im(g ◦ f ) ⊆ E, y por lo tanto ambas funciones existirán, y serán iguales.

Observación 6. La situación analizada respecto de la existencia de dos funciones que, en


caso de ocurrir, son iguales, suele abreviarse diciendo algo como “estas funciones son iguales
en en el caso que ambas existan”. Por ejemplo, en el caso que hemos analizado, dirı́amos
h ◦ (g ◦ f ) = (h ◦ g) ◦ f , siempre que las composiciones sean posibles.

Consideremos de nuevo una función f : A → B. Una función g : B → A se llama inversa


lateral izquierda, o simplemente inversa a izquierda de f si la compuesta g ◦ f : A → A
es igual a la identidad IA : A → A. Por otro lado, una función h : B → A se llama inversa
lateral derecha, o simplemente inversa a derecha de f si la compuesta f ◦ h : B → B es
igual a la identidad IB : B → B. Finalmente, una función f˜: B → A se llama inversa de f , si
es simultaneamente una inversa a izquierda y una inversa a derecha, de f . Es decir, se tienen
las igualdades f ◦ f˜ = IB y f˜ ◦ f = IA .
Concluiremos esta sección demostrando el siguiente resultado referente a las inversas de una
función.

Teorema 1.2.7. Sea f : A → B, una función.

a) Muestre que la inyectividad de f es equivalente a la existencia de una inversa a izquierda,


g : B → A, de f .

b) Muestre que la sobreyectividad de f es equivalente a la existencia de una inversa a derecha,


h : B → A, de f .

c) Muestre que, si g, h : B → A son inversas a izquierda y a derecha de f , respectivamente,


entonces, necesariamente g = h. Concluya que la biyectividad de f es equivalente a la
existencia de una inversa, la cual es única. La notación usual para la inversa de f es
f −1 .

Prueba. a) En efecto, supongamos que f : B → A es inyectiva. Entonces podemos definir


una función g : B → A de la siguiente forma: dado y ∈ f (A), definimos g(y) = x ∈ A,
donde x es la única preimagen de y (dicho elemento existe porque y ∈ f (A) y es único
porque f es inyectiva). Para terminar de definir g debemos especificar qué hará con
elementos en B \ (f (A)). Para nuestro objetivo, eso es irrelevante, ası́ que podemos tomar
cualquier x0 ∈ A y definir g(y) = x0 ∈ A para todo y ∈ B \ f (A). Con esto tenemos
g : B → A bien definida, lo que nos falta es verificar que es una iversa a izquierda para f .
Para ello, observamos que, para cualquier x ∈ A tenemos (g ◦ f )(x) = g(f (x)) = x, pues
x es la única preimagen de f (x). Ası́, g ◦ f = IA : A → A.

17
Recı́procamente, supongamos que g : B → A sea una inversa a izquierda de f . Conside-
remos entonces dos elementos x1 ̸= x2 ∈ A tales que f (x1 ) = f (x2 ). Dado que g ◦ f = IA ,
tendremos x1 = g(f (x1 )) = g(f (x2 )) = x2 , es decir, f es inyectiva.

b) Supongamos que f : A → B es sobreyectiva. Entonces cada elemento y ∈ B tiene al


menos una preimagen. Definamos una función h : B → A de la siguiente manera: dado
un elemento y ∈ B, definamos h(y) = x ∈ A, siendo x una preimagen determinada
de y (elegimos una preimagen). Esto define la función h : B → A, falta verificar que
es inversa a derecha de f . Para ello, observamos que si y ∈ B, entonces tendremos
(f ◦ h)(y) = f (h(y)) = y, pues h(y) es una preimagen de y. Ası́, f ◦ h = IB , como
querı́amos.
Recı́procamente, si h : B → A es una inversa a derecha de f entonces, para cualquier
y ∈ B tenemos f (h(y)) = y, es decir, y ∈ f (A) y por tanto f es sobreyectiva.

c) Finalmente, si g, h : B → A son respectivamente inversas a izquierda y a derecha de f ,


entonces tenemos g ◦ f = IA y f ◦ h = IB . Tomemos un elemento cualquiera x ∈ B y
pongamos x̃ = h(x). De f ◦h = IB obtenemos x = f (h(x)) = f (x̃), y de g◦f = IA tenemos
x̃ = g(f (x̃)) = g(x). Ası́, tenemos g(x) = h(x), y como x era arbitrario, concluimos que
g = h. Por tanto, f es biyectiva si, y sólo si, tiene ambas inversas laterales, g y h, que
como hemos demostrado satisfacen g = h. Denotemos por f −1 esa función común, y
tendremos f ◦ f −1 = IB y f −1 ◦ f = IA , es decir, f −1 es una inversa de f . Esta inversa es
claramente única, pues por definición es simultaneamente una inversa a izquierda y una
inversa a derecha, las cuales todas coinciden cuando existen ambas.

1.2.3 Ejercicios Adicionales


1. Considere una función f : A → B. Demuestre las siguientes afirmaciones.

1. f (X ∪ Y ) = f (X) ∪ f (Y ).

2. f (X ∩ Y ) ⊆ f (X) ∩ f (Y ).

3. X ⊆ Y =⇒ f (X) ⊂ f (Y ).

4. f (∅) = ∅.

2. Considere una función f : A → B. Dados Y, Z ⊆ B, demuestre las siguientes afirmaciones.

1. f −1 (Y ∪ Z) = f −1 (Y ) ∪ f −1 (Z).

2. f −1 (Y ∩ Z) = f −1 (Y ) ∩ f −1 (Z).

3. f −1 (Y C ) = (f −1 (Y ))C .

18
4. Y ⊂ Z =⇒ f −1 (Y ) ⊂ f −1 (Z).

5. f −1 (B) = A.

6. f −1 (∅) = ∅.

3. Considere funciones f : A → B y g : C → D. Suponga que Im(f ) ⊆ C.

1. Muestre que, si f y g son inyectivas, entonces g ◦ f : A → D es inyectiva.

2. Muestre que, si f y g son sobreyectivas, entonces g ◦ f : A → D es sobreyectivo.

3. De ejemplos de funciones f y g, tales que una es inyectiva, la otra no, y tampoco sea
inyectiva la compuesta g ◦ f .

4. De ejemplos de funciones f y g, tales que una es sobreyectiva, la otra no, y tampoco sea
sobreyectiva la compuesta g ◦ f .

4. Considere una función f : A → B.

1. Muestre que f −1 (f (X)) ⊇ X, cualquiera sea X ⊆ A.

2. Muestre que f es inyectiva si, y sólo si, f −1 (f (X)) = X, cualquiera sea X ⊆ A.

3. Muestre que f (f −1 (Y )) ⊆ Y , cualquiera sea Y ⊆ B.

4. Muestre que f es sobreyectiva si, y sólo si, f (f −1 (Y )) = Y , cualquiera sea Y ⊆ B.

19
CAPÍTULO 2

Conjuntos Numéricos

En el capı́tulo anterior establecimos las bases de conjuntos y funciones necesarias para un desa-
rrollo moderno de las matemáticas. Vimos allı́ que los conjuntos pueden ser de una naturaleza
muy variada, incluyendo tanto objetos concretos como abstractos. En este curso estaremos
principalmente interesados en ciertos tipos de conjuntos abstractos, los llamados conjuntos
numéricos. Estos son los números naturales, enteros, racionales, reales, y complejos. Si bien ya
hemos usado en ejemplos del capı́tulo anterior los números naturales y los enteros, dado que
estos son conocidos desde etapas tempranas de la educación, en este capı́tulo los abordaremos
con más profundidad, resaltando sus propiedades fundamentales y cómo las preguntas naturales
sobre estos conjuntos nos conducen a la necesidad de expandirlos, llegando ası́ a los números
racionales, reales y complejos, fundamentales para la ingenierı́a. El material presentado en este
capı́tulo puede complementarse con ejercicios de los textos [2, 5, 8, 6]

2.1 Naturales y Enteros


Asumiremos que tenemos familiaridad con los números naturales

N = {1, 2, 3, 4, . . .},

y con los enteros


Z = {. . . , −4, −3, −2, −1, 0, 1, 2, 3, 4, . . .}.

Con “tener familiaridad” queremos decir que sabemos manipular estos números, como por
ejemplo sumarlos, restarlos, multiplicarlos, etc. Además, que sabemos que tienen una conexión
con la realidad, por ejemplo que los naturales sirven para contar objetos, y que los enteros
negativos sirven para representar, por ejemplo, deudas.

20
El objetivo de este capı́tulo es establecer propiedades fundamentales de estos conjuntos
numéricos e ilustrar cómo a partir de dichas propiedades fundamentales pueden desarrollarse
todo lo que en mayor o menor medida ya conocemos sobre ellos. Este ejercicio será importante
a medida que avancemos de estos conjuntos numéricos a los más sofisticados, como son los
racionales, los reales y los complejos.
Comencemos con las operaciones básicas de adición y multiplicación que tenemos disponibles
en el conjunto de números enteros. Estas operaciones las podemos ver como funciones:

s : Z × Z → Z; m : Z × Z → Z,

y usaremos, respectivamente, las notaciones

s(a, b) = a + b; m(a, b) = a · b = ab.

En la siguiente proposición listamos las propiedades fundamentales que satisfacen estas


funciones (u operaciones)

Proposición 2.1.1. La suma y producto de números enteros satisfacen las siguientes propiedades:

a) Asociatividad: a + (b + c) = (a + b) + c y a(bc) = (ab)c, para todo a, b, c ∈ Z.

b) Conmutatividad: a + b = b + a y ab = ba para todo a, b ∈ Z.

c) Distributividad: a(b + c) = ab + ac para todo a, b, c ∈ Z.

d) Elementos neutros: a + 0 = a y a · 1 = a para todo a ∈ Z.

e) Opuesto aditivo: Dado a ∈ Z, existe −a tal que a + (−a) = 0.

f ) Leyes de corte: a + b = a + c =⇒ b = c, para todo a, b, c ∈ Z y ab = ac =⇒ b = c, para


todo a, b, c ∈ Z con a ̸= 0.

Observación 7. Dados dos números enteros a, b, al número s(a, b) = a + b lo llamaremos


la suma de dichos números, y al número m(a, b) = ab lo llamaremos el producto de dichos
números. A los elementos n ∈ Z tales que n > 0 los llamaremos enteros positivos y a los
que cumplen n < 0 los llamaremos enteros negativos. Dado un número a ∈ Z a su opuesto
aditivo −a lo llamaremos negativo de a. Note que el negativo de un entero puede ser un entero
positivo. Dados dos enteros a y b, definimos la resta o diferencia a − b := a + (−b). Esto es,
restar b de a es simplemente sumarle a a el negativo de b. La usual “regla de los signos” es una
consecuencia de la asociatividad, no la probaremos en este curso, pero la usaremos libremente.
También usando el producto podemos definir la potenciación: para a entero definirmos a0 := 1
y para n natural, an := aa · · · a, con n factores iguales a a. En la notación an , a recibe el nombre
de base y n recibe el nombre de exponente. Las propiedades de la potenciación también se
pueden demostrar a partir de las propiedades básicas de las operaciones fundamentales de suma

21
y producto, pero no lo demostraremos en este curso. Sin embargo, usaremos libremente todas
las propiedades familaries de la potenciación.

Dados dos números a, b ∈ Z, diremos que a es mayor que b si existe otro número c ∈ N
tal que a = b + c. Denotaremos esta situación mediante el sı́mbolo a > b. En tal caso,
también podemos decir que b es menor que a y escribir b < a. Cuando queremos considerar
la posibilidad de que a = b, usaremos la notación a ≤ b, para indicar que a es menor o igual
que b, o bien b ≥ a, para indicar que b es mayor o igual que a. A cualquiera de las relaciones
“<” o “≤” la llamaremos relación de orden en Z.
Observamos que la relación de orden en Z cumple las siguientes propiedades.

Proposición 2.1.2.
a) Reflexividad: Par cualquier a ∈ Z, se tiene a ≤ a.
b) Antisimetrı́a: Si a ≤ b y b ≤ a, entonces a = b.
c) Transitividad: Si a ≤ b y b ≤ c, entonces a ≤ c.
d) Monotonı́a de la adición: Dados a, b ∈ Z, a ≤ b =⇒ a + c ≤ b + c para cualesquier c ∈ Z.
e) Monotonı́a de la multiplicación: Dados a, b ∈ N, a ≤ b =⇒ ac ≤ bc para cualquier c ∈ N.

Prueba. Probaremos sólo el ı́tem e) a modo de ejemplo de razonamiento. Dado que a ≤ b,


o bien a = b o bien a < b. Si a = b, sigue de la ley de corte que ac = bc para cualquier
c ∈ N. Si a < b, entonces existe p ∈ N tal que b = a + p. Multiplicando ambos lados por c
(aquı́ usamos de nuevo la ley de corte) obtenemos bc = (a + p)c = ac + pc (donde usamos la
propiedad distributiva). Como pc ∈ N, concluimos que bc > ac, que es equivalente a ac < ab,
como querı́amos. Ası́, en general tenemos que a ≤ b =⇒ ac ≤ bc.

Observación 8. Todas las propiedades listadas en la Proposición 2.1.2, excepto la primera,


son válidas también para la relación “<”. En general las condiciones que definen a una relación
de orden son las tres primeras listadas en la Proposición 2.1.2. De tal forma, sólo “≤” serı́a
una relación de orden en N. Nosotros no tendremos conflicto por llamar a “<” también una
relación de orden.

Ejercicio 2.1.3. Muestre las demás propiedades enunciadas en la Proposición 2.1.2.

Ejercicio 2.1.4. Muestre las siguientes propiedades.

a) Si a ≤ b entonces −a ≥ −b. (Emule la prueba del ı́tem e) con c = −1.)

b) Si a ≤ b y c ≤ d, entonces a + c ≤ b + d.

La relación de orden nos permite introducir el concepto de “cotas” en Z. Dado un conjunto


A ⊂ Z diremos que es acotado inferiormente si existe m ∈ Z tal que m ≤ n, para todo
n ∈ A y diremos que es acotado superiormente si existe M ∈ Z tal que M ≥ n para todo
n ∈ A.

22
Una de las propiedades más importantes de la relación de orden en Z es el llamado prin-
cipio del buen orden, que establece lo siguiente: todo subconjunto no vacı́o A ⊂ Z acotado
inferiormente admite un elemento mı́nimo. Es decir, existe un elemento am ∈ A tal que am ≤ a
para todo a ∈ A. Equivalentemente, puede decirse que todo subconjunto B ⊂ Z no vacı́o y
acotado superiormente admite un elemento máximo. Es decir, un elemento bM ∈ B tal que
bM ≥ b para todo b ∈ B.

Ejercicio 2.1.5. Dado A ⊂ Z no vacı́o y acotado inferiormente, explique por qué el elemento
mı́nimo es único.

Finalmente, introduzcamos el concepto de valor absoluto. Dado un número entero n ∈ Z,


su valor absoluto se define como

|n| = max{n, −n}.

Ası́, si n ≥ 0, tendremos n ≥ −n y por tanto |n| = n. Caso tengamos n < 0, entonces −n > n
y por tanto |n| = −n. En cualquier caso, |n| ≥ 0.

Proposición 2.1.6. El valor absoluto en Z satisface las siguientes propiedades

a) −|a| ≤ a ≤ |a|.

b) |a + b| ≤ |a| + |b|.

c) |ab| = |a||b|.

d) |a| − |b| ≤ ||a| − |b|| ≤ |a − b|.

e) |a − b| ≤ |a − c| + |c − b|.

Prueba. Seguir la siguiente prueba es opcional, pero es una buena forma de familiarizarse
con las propiedades enunciadas, y las manipulaciones de desigualdades, las cuales usaremos
posteriormente.

a) De |a| = max{−a, a} sigue inmediatamente que a ≤ |a|. También tenemos −a ≤ |a|,


de donde, multiplicando por −1 obtenemos a ≥ −|a|. Ası́, tenemos −|a| ≤ a ≤ |a|, por
transitividad.

b) Observamos que −|a| ≤ a ≤ |a| y −|b| ≤ b ≤ |b|. Sumando miembro a miembro estas
desigualdades, obtenemos

−(|a| + |b|) ≤ a + b ≤ |a| + |b|.

Multiplicando por −1 la primera desigualdad obtenemos −(a + b) ≤ |a| + |b|, por tanto
|a| + |b| es mayor o igual que el máximo entre a + b y −(a + b), esto es |a + b| ≤ |a| + |b|.

23
c) Observamos primero que |x||x| = xx (por la regla de los signos). Entonces

|ab||ab| = (ab)(ab) = aabb = |a||a||b||b| = (|a||b|)(|a||b|).

Por tanto |ab| = ±|a||b|. Dado que ambos son positivos, concluimos que |ab| = |a||b|.

d) La primera desigualdad es obvia. Para probar la segunda, observamos que

|a| = |(a − b) + b| ≤ |a − b| + |b| =⇒ |a| − |b| ≤ |a − b|.

Análogamente
|b| − |a| ≤ |b − a| = |a − b|.

Ası́, |a − b| ≥ max{|a| − |b|, −(|a| − |b|)} = ||a| − |b||.

e) Consideremos la igualdad a − b = a − c + c − b, entonces, de la propiedad b) sigue que


|a − b| = |a − c + c − b| ≤ |a − c| + |c − b|.

2.1.1 Divisibilidad
Dados dos enteros a, b ∈ Z, diremos que b es múltiplo de a si existe c ∈ Z tal que b = ac. En
este caso, diremos también que a y c son factores o divisores de b, o que a y c dividen a b,
y que b se factoriza como b = ac. Es usual la notación a|b para indicar que a divide a b.

Observación 9. Notemos que a = 0 no puede ser divisor de ningún entero b ̸= 0. Pues, para
serlo, deberı́a existir un entero c tal que b = 0c, lo cual es imposible. Por otra parte, si b = 0,
entonces para cualquier c ∈ Z se tendra 0 = 0c. De esta última igualdad, podemos concluir
que cualquier entero c divide a 0, y que 0 es múltiplo de cualquier entero. De esta forma, si
con la notación ab quisiéramos representar el entero c tal que b = ac, vemos que si b ̸= 0 y
a = 0, entonces ab no existe, y si a = b = 0, entonces ab puede ser cualquier entero. Por lo
general, estamos interesados en situaciones donde tenemos existencia de los objetos que nos
interesan, y frecuentemente queremos que sean únicos. Como a = 0 rompe cualquiera de estas
dos condiciones decimos que la división entre 0 no está definida. En adelante, en cualquier
resultado teórico en que un entero aparezca como divisor, entenderemos que debe ser no nulo.

Ejemplo 2.1.7. Un número entero se llama par si es un múltiplo de 2, y caso contrario se


llama impar. Podemos observar fácilmente que todos los enteros pares son de la forma 2m,
siendo m un entero, y que todos los enteros impares son de la forma 2m + 1, siendo m un
entero. Usemos esta observación para mostrar que el cuadrado de un impar debe ser impar. En
efecto, si p = 2m + 1, entonces tenemos

p2 = (2m − 1)2 = 4m2 − 4m + 1 = 2(2m2 − 2m) + 1 = 2q + 1,

24
donde q es entero, y por lo tanto p2 es impar.

En la siguiente proposición coleccionamos algunas propiedades básicas de la divisibilidad


entre enteros.

Proposición 2.1.8. Dados a, b, c ∈ Z, se cumplen las siguientes propiedades (donde


cualquiera de estos enteros aparezca como divisor, entenderemos que debe ser no nulo).

a) Si a|b y b|c, entonces a|c.

b) Si a|b y a|c, entonces a|(mb + nc) para cualesquiera m, n ∈ Z.

c) Si a|b y b ̸= 0, entonces 0 < |a| ≤ |b|.

d) Si a|b y b|a, entonces a = ±b.

Prueba. Probaremos b) y c).

b) De a|b tenemos b = aq1 para algún q1 ∈ Z y de a|c tenemos c = aq2 para algún q2 ∈ Z.
Entonces, dados m, n ∈ Z tenemos

mb + nc = m(aq1 ) + n(aq2 ) = a(mq1 + nq2 ),

como mq1 + nq2 ∈ Z, concluimos que a|(mb + nc).

c) De a|b con b ̸= 0, concluimos que b = ac ̸= 0, y por tanto a ̸= 0 y c ̸= 0. Ası́, 0 < |a|, y


|b| = |ac| = |a||c|, implica |b| ≥ |a|, pues |c| ≥ 1.

Ejercicio 2.1.9. Pruebe las propiedades restantes en la Proposición 2.1.8.

Ejercicio 2.1.10. Dados enteros a, c1 , c2 , . . . , cr tales que a|ci , para todo i = 1, 2, . . . r, entonces
a divide a m1 c1 + m2 c2 + · · · + mr cr , para cualesquiera enteros mi .

El siguiente resultado es uno de los más importantes sobre divisibilidad de los números
enteros.

Teorema 2.1.11 (Algoritmo de la división entera). Sean a y b enteros, con b ̸= 0. Entonces


existen enteros únicos, q y r, llamados cociente y resto, respectivamente, tales que 0 ≤ r < |b|
y a = bq + r.

Prueba. Primero observamos que si a es múltiplo de b, entonces a = bq + 0, y ya no queda nada


por demostrar. Consideremos entonces que a no es múltiplo de b, y definamos el conjunto de
todos los restos positivos de realizar la división de a entre b, es decir:

R = {a − bn; n ∈ Z y a − bn > 0}.

25
Observemos primero que este conjunto es no vacı́o, pues a − bn > 0 es equivalente a a > bn,
lo cual podemos obtener eligiendo apropiadamente n ∈ Z. Además, el conjunto R es acotado
inferiormente por 0. Por tanto, del principio del buen orden, sigue que R tiene un elemento
mı́nimo, que llamaremos r.
En particular, existe un número q tal que r = a − bq ∈ R y es mı́nimo. De esta igualdad
obtenemos a = bq + r, y además r es único, pues es el mı́nimo del conjunto R.
Si r ≥ |b| tendrı́amos r = |b| + p, con p ∈ N. Consideremos dos casos

a) Caso b > 0: Entonces |b| = b, r = b + p y tenemos

a − b(q + 1) = a − bq − b = r − b = p > 0,

Por tanto p = r − b es un elemento de R menor que r, lo cual contradice la minimalidad


de r.

b) Caso b < 0: Entonces |b| = −b, y r = a − bq = a − |b|(−q), de donde obtenemos

a − |b|(−q + 1) = a − |b|(−q) − |b| = r − |b| = p > 0,

y nuevamente concluimos que p = r − |b| es un elemento de R menor que r, lo cual


contradice la minimalidad de r.

En cualquier caso, la suposición r ≥ |b| contradice la minimalidad de r, por tanto debemos


tener r < |b|.
La unicidad de q sigue fácilmente de las leyes de corte. En efecto, si q ′ es un entero tal que
a = bq ′ + r. Entonces, por las leyes de corte, tenemos

bq + r = bq ′ + r =⇒ bq = bq ′ =⇒ q = q ′ .

Es decir, q también es único.

2.1.2 Máximo común divisor - Algoritmo de Euclides


Un número natural p se denomina primo si p ̸= 1 y sus únicos factores positivos son el 1 y p.
Dados números enteros n1 , n2 , . . . , nr , definimos su máximo común divisor como el mayor
número natural que es factor de cada ni . Usaremos la notación

M CD(n1 , n2 , . . . , nr )

para denotar el máximo común divisor de los ni . Dos números enteros a y b se denominan
primos relativos si su máximo común divisor es 1.
Notemos que dados n1 , n2 , . . . , nr , no todos nulos, podemos asumir que están ordenados
como |n1 | < |n2 | < · · · < |nr |. Si denotamos por D el conjunto de números naturales que son

26
factores comunes de los ni , observamos que D está acotado superiormente por |nr |, y además
que D es no vacı́o, pues 1 ∈ D. El principio del buen orden implica por tanto la existencia de
un elemento máximo en D. Dicho elemento será pues el máximo común divisor de los ni .
Veremos a continuación un método computacionalmente eficiente para el cálculo del máximo
común divisor de dos enteros. El método se conoce como el Algoritmo de Euclides, y se basa
en el siguiente resultado.

Teorema 2.1.12. Si b ̸= 0 y a = bq + r, entonces los factores comunes de a y b son los mismos


factores comunes de b y r.

Antes de ver la prueba de este resultado, veamos cómo se usa para construir el Algoritmo de
Euclides. Para simplificar la discusión, supongamos que a y b son positivos. Si b es divisor de
a, entonces M CD(a, b) = b. Caso contrario, tendremos a = bq + r, con 0 < r < b, y el Teorema
implica, en particular, que M CD(a, b) = M CD(b, r). Entonces, si r divide a b, tendremos
r = M CD(b, r) = M CD(a, b). Caso contrario, tendremoss b = rq1 + r1 , con 0 < r1 < r, y de
nuevo por el teorema precedente, M CD(r, r1 ) = M CD(b, r) = M CD(a, b). Prosiguiendo de
este modo, obtenemos una secuencia decreciente r > r1 > r2 > · · · ≥ 0, tal que

M CD(a, b) = M CD(b, r) = M CD(r, r1 ) = M CD(r1 , r2 ) = · · · .

Dado que los ri están acotados por 0, eventualmente la secuencia deberá finalizar, y el último
resto no nulo será el máximo común divisor buscado.

Ejemplo 2.1.13. Calculemos el máximo común divisor de 456 y 138.

456 = 138 · 3 + 42,


138 = 42 · 3 + 12,
42 = 12 · 3 + 6,
12 = 6 · 2 + 0.

El último resto no nulo es 6, portanto M CD(456, 138) = 6.

Probemos ahora el Teorema 2.1.12.

Prueba del Teorema 2.1.12. Supongamos que c es un factor común de a y b, entonces a = cm


y b = cn. De la expresión a = bq + r obtenemos r = a − bq, y por tanto

r = cm − cnq = c(m − nq),

es decir, c divide a r. Por tanto, c también es factor común de b y r. Recı́procamente, si c es


factor común de b y r, entonces b = cn y r = ck, por tanto

a = cnq + ck = c(nq + k),

27
y c es factor común de a y b.

El siguiente resultado, fundamental para el desarrollo de la aritmética, ofrece una forma de


caracterizar el máximo común divisor de dos números naturales.

Teorema 2.1.14 (Identidad de Bezout). El máximo común divisor de dos números enteros a
y b, no ambos nulos, es el menor número natural d que puede escribirse como d = ma + nb,
con m y n enteros.

Prueba. Supongamos que a ̸= 0, y definamos el conjunto

D = {ma + nb; m, n ∈ Z y ma + nb > 0}.

Primero observamos que D es no vacı́o, pues 0 < |a| = ±1 · a + 0 · b ∈ D, y además está acotado
inferiormente por 1. Del principio del buen orden, este conjunto tiene un menor elemento, que
llamaremos d. Afirmamos que d es el máximo común divisor de a y b.
En efecto, pongamos d = ma+nb. Del algoritmo de la división, podemos escribir a = dq +r,
con 0 ≤ r < d, y por lo tanto

r = a − dq = a − (ma + nb)q = (1 − qm)a − qnb.

Si r > 0, concluimos que r ∈ D, pero eso contradice la minimalidad de d. Por lo tanto,


debemos tener r = 0, lo que implica a = dq, es decir, d es factor de a. Análogamente se puede
argumentar que d es factor de b.
Falta mostrar que d es el mayor factor común de a y b. Supongamos que d˜ es otro divisor
común de a y b, entonces d˜ divide a ma + nb, para cualesquiera enteros m y n (Proposición
2.1.8, ı́tem b)). Sigue entonces que d˜ divide a d, y por lo tanto d˜ ≤ d.

Observación 10. En la práctica se pueden determinar los números m y n del teorema prece-
dente invertiendo los pasos en el Algoritmo de Euclides. Por ejemplo, retomando el Ejemplo
2.1.13, tenemos:

6 = 42 − 3 · 12 = 456 − 3 · 138 − 3(138 − 3 · 42)


= 456 − 3 · 138 − 3 · 138 + 9(456 − 3 · 138)
= 10 · 456 − 33 · 138.

Ası́, los números son 10 y −33.

Ejemplo 2.1.15. Consideremos tres enteros a1 , a2 , a3 , y pongamos d2 = M CD(a1 , a2 ) y d3 =


M CD(a1 , a2 , a3 ). Afirmamos que d3 = M CD(d2 , a3 ). En efecto, sabemos de la Identidad de
Bezout que
d2 = ma1 + na2 ; M CD(d2 , a3 ) = pd2 + qa3 .

28
Por tanto, M CD(d2 , a3 ) = p(ma1 + na2 ) + qa3 = pma1 + pna2 + qa3 , y dado que d3 divide
los ai , entonces divide a M CD(d2 , a3 ) (Ejercicio 2.1.10). Por otro lado, M CD(d2 , a3 ) divide
a d2 y a a3 . Del hecho que divide a d2 , y d2 divide a a1 y a2 sigue que M CD(d2 , a3 ) divide a
a1 y a a2 . Ası́, M CD(d2 , a3 ) es un divisor común de a1 , a2 y a3 . Por tanto también es divisor
de d3 . Concluimos que d3 = M CD(d2 , a3 ).

Ejercicio 2.1.16. Generalice el argumento dado en el ejemplo anterior. Esto es, dados enteros
a1 , . . . , ar , ponga dk = M CD(a1 , a2 , . . . , ak ), y muestre que dr = M CD(dr−1 , ar ).

Observación 11. El ejercicio anterior sirve para calcular el MCD de varios enteros aplicando
de forma recursiva el algoritmo de Euclides para el cálculo del MCD de dos enteros.

Un resultado interesante de la identidad de Bezout es que si p es un número primo que


divide a un producto de factores, entonces divide a alguno de los factores. Enunciemos este
resultado como una Proposición, para futuras referencias.

Proposición 2.1.17 (Lema de Euclides). Dados a y b enteros, y p un número primo que divide
al producto ab, entonces p es factor de a o es factor de b.

Prueba. Dado que p es divisor de ab, entonces podemos escribir ab = kp, para algún entero
k. Supongamos que p no divide alguno de los enteros a y b, digamos a. Entonces el máximo
común divisor de p y a es 1, y por lo tanto tendremos 1 = mp + na, para ciertos enteros m y
n. Multiplicando esta igualdad por b, obenemos

b = (mp + na)b = mpb + nab = mbp + nkp = (mb + nk)p,

es decir, p es un factor de b.

Corolario 2.1.18. Dados enteros a, b, p, con p y a primos relativos, y p|ab, entonces p|b.

Prueba. En efecto, si p y a son primos relativos, entonces su máximo común divisor es 1, y


podemos escribir 1 = mp + na. Esta igualdad fue lo único necesario para concluir el resultado
del Lema de Euclides.

Dados enteros a1 , a2 , . . . , ar , definimos su mı́nimo común múltiplo, denotado por

M CM (a1 , . . . , ar ),

como el menor entero positivo que es múltiplo de todos los ai . La existencia del mı́nimo común
múltiplo es una consecuencia simple del principio del buen orden, pues, |a1 ||a2 | · · · |ar | es un
múltiplo común positivo de los ai , y por tanto el conjunto M de todos los múltiplos comunes
positivos de los ai es no vacı́o, y acotado inferiormente por 1, por lo cual tiene un (único) menor
elemento, el cual será M CM (a1 , . . . , ar ).
En la siguiente proposición estableceremos la relación entre el máximo común divisor y el
mı́nimo común múltiplo. Para su prueba será necesario el resultado del siguiente ejercicio.

29
Ejercicio 2.1.19. Dados dos números enteros, a y b, suponga que |a| = rd y |b| = sd, siendo
d = M DC(a, b). Muestre que r y s son primos relativos.

Proposición 2.1.20. Dados dos enteros a y b, se tiene

M CM (a, b) · M DC(a, b) = |ab|.

Prueba. Pongamos d = M CD(a, b) y m = M CM (a, b). Tenemos que d divide a |a| y a |b|,
por tanto podemos escribir |a| = rd y |b| = sd, siendo r y s primos relativos (Ejercicio 2.1.19).
Como m es múltiplo común de |a| y |b|, podemos escribir p|a| = m = q|b|, de donde obtenemos

prd = qsd =⇒ pr = qs =⇒ r|qs =⇒ r|q (porque r y s son primos relativos).

Ası́, q = rk, y por lo tanto m = q|b| = rk|b|. Es decir, r|b| = rsd es un factor de m. Por otro
lado, rsd es divisible por rd = |a| y por sd = |b|, es decir, es múltiplo común de |a| y b, con lo
cual es múltiplo de m. Concluimos que m = rsd, y por lo tanto

md = rsdd = (rd)(sd) = |a||b| = |ab|,

como querı́amos.

Cerraremos esta sección usando el Lema de Euclides par demostrar el Teorema Fundamental
de la Aritmética, también conocido como Teorema de la Factorización Prima, el cual establece
que todo número natural mayor que 1 o bien primo, o bien es producto de números primos.

Teorema 2.1.21 (Teorema Fundamental de la Aritmética). Todo número natural p ̸= 1 es


primo o puede descomponerse como producto de números primos. La descomposición prima es
única a menos de orden de los factores.

Prueba. Consideremos un entero a > 1. Si a es primo, ya no hay nada que demostrar. Caso
contrario, tendrá factores no triviales, y podremos esccribir a = q1 q2 · · · qr , donde 1 < qi < a,
para cada i = 1, 2, . . . r. Si todos los qi son primos, ya tendremos a como producto de primos.
Caso contrario, cualquiera de los qi que no sea primo, será producto de factores no triviales y
menores. Si estos factores son primos, ya tenemos lo que buscamos, caso contrario, continuamos
expresándolos como producto de factores no triviales, cada vez menores. Este proceso debe
terminar en una cantidad finita de pasos, pues todos los factores que surgen están limitados
inferiormente por 1. Esto garantiza que a, si no es primo, será el producto de factores primos.
Consideremos ahora que
a = q1 q2 · · · qr

es una descomposición de a en factores primos. Argumentenos que la descomposición es única


(a menos de orden de los factores). En efecto, supongamos que

a = p 1 p1 · · · ps

30
sea otra descomposición en factores primos. Entonces, de

p1 p2 · · · ps = q1 q2 · · · q r ,

concluimos que p1 divide a q1 q2 · · · qr , y como es primo, deberá dividir a alguno de los qi .


Renombrando si es necesario, asumamos que p1 divide a q1 . Como ambos son números primos,
entonces p1 = q1 . Ası́, aplicando la ley de corte, obtenemos

p2 · · · ps = q2 · · · q r .

Repitiendo el argumento anterior, podremos concluir que p2 = q2 . Esto muestra que s = r, y a


menos de un reetiquetado, pi = qi , para cada i = 1, 2, . . . r.

Observación 12. En cursos de aritmética elemental se enseña el cálculo de MCD y MCM a


partir de la factorización prima de los números enteros. Dicho método es práctico para números
pequeños, pero para números grandes el costo computacional de calcular la factorización prima
es prohibitivamente alto. A modo de comentario, el costo computacional elevado de la factor-
ización prima está por detrás de algunos algoritmos de criptografı́a que usamos cotidianamente
en la era digital.

2.2 Racionales y Reales


Observemos que los números naturales, que surgieron de la necesidad de contar objetos, tienen
definida una suma y una multiplicación de sus elementos. La idea de la substracción, o resta,
nos plantea una problema con el conjuntos de los naturales, y es que si intentamos sustraer
un número mayor de otro menor, el resultado deja de ser un número natural. Hemos visto
que una forma de resolver eso es mediante una extensión del conjunto de los naturales a los
números enteros, y la inclusión del cero. En el conjunto de los enteros tenemos la suma y el
producto con todas sus propiedades familiares (incluida la regla de los signos), y esto ya nos
permitió desarrollar varios conceptos interersante, como son el algoritmo de la división entera,
el concepto de máximo común divisor y el Algoritmo de Euclides para su determinación.
Hemos mencionado también que la operación de multiplicación puede usarse para introducir
la idea de potenciación. Sin embargo, la división, que puede pensarse como un proceso inverso a
la multiplicación, nos plantea un problema similar al que nos planteó la resta con los naturales.
Observamos pues que al tratar de determinar el cociente de dividir 7 entre 3, devemos quedarnos
con un resto: 7 = 3 · 2 + 1. En particular, no es posible escribir 7 = 3m, con m siendo un
número entero. De esta forma, la operación de división nos conduce a la necesidad de expandir
una vez más nuestro conjunto numérico. Esto es lo que se logra con la introducción de los
números racionales.

31
El conjunto de los números racionales lo definiremos mediante
nm o
Q := ; m, n ∈ Z; n = ̸ 0 ,
n

donde declaramos que dos elementos m n


y pq son iguales si mq = np. Ası́, por ejemplo 32 = 69 ,
porque 2 · 9 = 6 · 3.
A la expresión mn
se la llama también fracción, a m se lo llama numerador y a n denom-
inador.
En el conjunto Q introduciremos la suma y producto de sus elementos mediante

m n mq + np
+ = ,
p q pq
y
m n mn
· =
q p pq
m −m
Dado un elemento n
∈ Q, su negativo es el elemento − m
n
= n
= m
−n
.

Observación 13. Observemos que para cualquier entero m ∈ Z, podemos considerar la igualdad
m = m1 . Esta identificación nos permite pensar en Z como un subconjunto de Q, y en particular,
tenemos 0 ∈ Q y 1 ∈ Q. Las operaciones de suma y producto de Q cuando se aplican a los
elementos de Z, coinciden con las que ya tenı́amos para Z. Con estas definiciones se tienen
todas las propiedades familiares de suma y producto de fracciones, incluidas la resta y la regla
de los signos.

La diferencia principal entre Q y Z es que ahora podremos definir la división de tal forma
que el resultado de dividir dos elementos de Q siempre será otro elemento de Q. Para ello,
es importante introducir el concepto de inverso multiplicativo. Concretamente, comenzamos
observando que 1 ∈ Q sigue siento el neutro multiplicativo, pues 1 = 11 =⇒ 1 · mn
=m n
. Ahora,
dado un elemento no nulo z ∈ Q, definimos su inverso multiplicativo, o su recı́proco, como
el elemento de z −1 ∈ Q tal que
z · z −1 = 1.

Veamos explı́citamente que, si z = m


n
, entonces z −1 = n
m
pues

m n mn
· = = 1.
n m nm
Ahora, dados dos elementos r, z ∈ Q, con z no nulo, definimos la división de r entre z
mediante
r ÷ z := r · z −1 .

Ası́, si r = m
n
y z = pq , entonces

m p m q mq
÷ = · =
n q n p np

32
Observación 14. Usaremos, como es usual, la notación r ÷ z = zr = r/z. Ası́, la notación
fraccionaria indicará tanto la operación de división, como un elemento genérico del conjunto
Q de forma explı́cita.

Ası́, tenemos en Q las cuatro operaciones básicas, a a saber: suma, resta, multiplicación y
división. Estas operaciones satisfacen todas las propiedades usuales, las cuales por sofisticadas
que sean, son consecuencias de las siguientes propiedades fundamentales, que listaremos aquı́ a
modo de referencia en una Proposición.

Proposición 2.2.1. Las operaciones de suma y producto en Q satisfacen las siguientes propiedades.

a) Para todo a, b, c ∈ Q, se tiene a + (b + c) = (a + b) + c.

b) Para todo a, b ∈ Q, se tiene a + b = b + a.

c) Para todo a ∈ Q, se tiene a + 0 = a.

d) Para cada a ∈ Q, existe otro −a ∈ Q tal que

a + (−a) = 0.

e) Para todo a, b, c ∈ Q se tiene


a · (b · c) = (a · b) · c.

f ) Para todo a, b ∈ Q se tiene a · b = b · a.

g) Para cada a ∈ Q se tiene a · 1 = a.

h) Para cada a ∈ Q no nulo, existe a−1 ∈ Q tal a · a−1 = 1.

i) Para todo a, b, c ∈ Q se tiene

a · (b + c) = a · b + a · c.

Observación 15. Note que estas 9 propiedades son todas conocidas de la manipulación usual
de números fraccionarios. Lo importante aquı́, más que memorizarse estas propiedades, es el
hecho de que todas las propiedades de los números racionales son consecuencias lógicas de estas
propiedades fundamentales. Por ejemplo, a partir de ellas se puede demostrar que en Q son
válidas las leyes de corte

a + b = a + c =⇒ b = c ab = ac =⇒ b = c si a ̸= 0.

Observación 16. La propiedad distributiva puede verse también como una factorización. Es
decir, en la igualdad
a · (b + c) = a · b + a · c,

33
podemos pensar que, al ir de izquierda a derecha de la igualdad, estamos distribuyendo el pro-
ducto sobre la suma. Pero si pensamos que vamos del lado derecho al lado izquierdo de la
igualdad, estamos factorizando al extraer el factor común a. La propiedad distributiva es útil
para realizar cálculos, por ejemplo, consideremos el cálculo de 13 · 17. Podemos realizar lo
siguiente

13 · 17 = (10 + 3) · (10 + 7) = 10 · 10 + 10 · 7 + 3 · 10 + 3 · 7 = 100 + 70 + 30 + 21 = 221.

Con la extensión de los enteros a los racionales ganamos también la posibilidad de expandir
el concepto de potenciación. Recordemos que, si a es entero, hemos definido a0 = 1, y si n es
natural, entonces
an = aa · · · a,

con n factores iguales a a. En los enteros no tenı́a sentido plantearse un exponente negativo.
Ahora, si a es un racional, y n es un natural, podemos definir

1 1
a0 = 1; an = aa · · · a; a−n = n
= ,
a aa · · · a
donde los productos indicados tienen n factores iguales a a. Con esta definción, se cumplen
todas las propiedades usuales de la potenciación de fracciones, que listamos en la siguente
Proposición a modo de referencia

Proposición 2.2.2. Para cualesquiera a, b ∈ Q no nulos, y m, n ∈ Z se cumplen las siguientes


propiedades.

a) am an = am+n
am
b) an
= am−n .

c) (am )n = amn

d) (ab)n = an bn
n n
e) ab = abn
p
Prueba. Probemos d) a modo de ejemplo. En efecto, a = q
y b = rs , con lo cual, si n es un
entero positivo, tendremos
 n  n
n pr pr pr pq
(ab) = = = · · · , n factores
qs qs qs rs (2.1)
p p p r r r
= · · · · · · · · · = an bn .
q q q s s s

Si n es negativo, tendremos

1 1 1 1
(ab)n = = = = an b n .
(ab)−n an b n a−n b−n

34
Ejercicio 2.2.3. Pruebe las demás propiedades listadas en la Proposición 2.2.2.

La relación de orden que tenemos en los enteros puede extenderse a una relación de orden
en los racionales, de la siguiente forma. Dados dos racionales m/n y p/q, declaramos que m/n
es mayor que p/q si se cumple
mq > np.

De forma similar, diremos que es mayor o igual, si se cumple

mq ≥ np,

es decir.
Notemos que, si z1 , z2 ∈ Z, entonces podemos pensarlos como racionales con denominador
1, es decir z1 = z1 /1 y z2 = z2 /1, y tendremos

z1 /1 ≥ z2 /1 ⇔ z1 · 1 ≥ 1 · z2 ⇔ z1 ≥ z2 .

Esto muestra que nuestra definición del orden en Q es compatible con el que tenı́amos en Z. Y
con esta definición, la relación de orden en Q satisface las siguientes propiedades.

Proposición 2.2.4.
a) Reflexividad: Par cualquier a ∈ Q, se tiene a ≤ a.
b) Antisimetrı́a: Si a ≤ b y b ≤ a, entonces a = b.
c) Transitividad: Si a ≤ b y b ≤ c, entonces a ≤ c.
d) Monotonı́a de la adición: Dados a, b ∈ Q, a ≤ b =⇒ a + c ≤ b + c para cualesquier c ∈ Q.
e) Monotonı́a de la multiplicación: Dados a, b ∈ Q, a ≤ b =⇒ ac ≤ bc para cualquier c ∈ Q
positivo.

Prueba. Mostraremos sólo e) a modo de ejemplo. En efecto, pongamos a = m/n y b = p/q,


entonces a ≤ b significa que mq ≤ np. Si c ∈ Q es positivo, significa que c = r/s, con r, s
enteros positivos, y por lo tanto

mqrs ≤ nprs =⇒ (mr)(qs) ≤ (pr)(ns)


mr pr m r p r
=⇒ ≤ =⇒ · ≤ · (2.2)
ns qs n s q s
=⇒ ac ≤ bc.

Del mismo modo como usamos la relación de orden en Z para introducir el concepto de valor
absoluto, lo podemos hacer ahora en Q, y serán válidas las mismas propiedades enunciadas en la

35
Proposición 2.1.6. Haremos notar aquı́ simplemente que, si a = m/n ∈ Q, entonces tendremos
m |m|
|a| = = .

n |n|

Hemos visto hasta ahora que los números naturales, enteros y racionales surgen como abs-
tracción matemática en respuesta a necesidades prácticas como contar y comerciar. En el
fondo de todas estas actividades humanas se encuentra el concepto de la medición, el cual es
fundamental para el desarrollo de la ciencia. Desde la antigua Grecia, los números han sido
asociados con mediciones geométricas, y veremos que esto una vez más conduce a la necesidad
de expandir nuestro sistema numérico.
Consideremos un cuadrado de lado 1, y sea d su diagonal. El teorema de Pitágoras asegura
que d2 = 12 +12 = 1+1 = 2. Ası́, el número que deberı́amos asociar a la longitud de la diagonal
de un cuadrado de lado unitario debe ser tal que su cuadrado sea igual a 2. Argumentaremos
ahora que en Q no existe ningún elemento que cumpla dicha condición.
En efecto, consideremos un elemento arbitrario p/q ∈ Q, el cual podemos suponer que fue
reducido a su mı́nima expresión, es decir, con p y q primos relativos (en particular, no pueden
ser ambos pares). Supongamos que este número racional satisface que su cuadrado es 2, es
decir, 2 = (p/q)2 = p2 /q 2 . De aquı́ obtenemos

2q 2 = p2 .

Esto significa que p2 es par, y por lo tanto debemos tener p par (Ejemplo 2.1.7). Pongamos
p = 2m. Entonces obtenemos

2q 2 = 4m2 =⇒ q 2 = 2m2 ,

con lo cual concluimos que también q 2 y q deben ser pares. Pero esto contradice que p y q sean
primos relativos.
De esta forma, si hemos de asignar un número a la longitud de la diagonal de nuestro
cuadrado de lado unitario, dicho número no puede ser ningún elemento de Q.

2.2.1 La recta numérica real


La diagonal de un cuadrado unitario es apenas un caso de muchos que surgen en geometrı́a en
los cuales los números racionales son insuficientes. La extensión de los racionales para subsanar
este inconveniente no es algo sencillo, y no intentaremos en este curso abordar dicho problema
de forma rigurosa. Lo que haremos en su lugar es apoyarnos en la intuición de asociar los
números con puntos en una recta.
Dada una recta, podemos escoger un punto arbitrario de la misma como el 0, y escoger
una longitud fija como la unidad. Con esto, colocamos los enteros positivos a un lado del cero
y los negativos al otro lado, marcando puntos separados entre sı́ por la longitud fijada como

36
Figure 2.1: Representación de la recta real

unidad. Hecho esto, podemos colocar los racionales de la siguiente forma: dado un racional
m/n, observamos que es lo mismo que m · n1 , entonces se divide la longitud unidad en n partes
iguales y se toman m de dichos segmentos partiendo desde el 0 (el signo del racional indica
hacia donde nos desplazamos del 0). Esto permite identificar cada racional con un punto de la
recta numérica, pero como hemos visto, existen longitudes de segmentos que no se corresponden
con ningún racional (ver Figura 2.1). A los puntos de la recta que tienen esta caracterı́stica de
no poder ser representados por un racional los llamaremos números irracionales. A la unión
de los números racionales y los irracionales los llamaremos números reales, y lo denotaremos
mediante R.
Nuestro primer ejemplo de un número irracional es la diagonal del cuadrado unitario, que
como hemos visto es una cantidad cuyo cuadrado debe ser 2. La notación usual para dicha

cantidad es 2, y se conoce como la raiz cuadrada de 2. El cociente entre la longitud de una
circunferencia y su diámetro, usualmente denotado como π también es un número irracional,

aunque demostrarlo no es tan sencillo como el caso de 2. Otras cantidades importantes que
son irracionales serán estudiadas en cursos de cálculo.
Si bien los racionales no son suficientes para representar todas las cantidades que pueden
tener un significado geométrico, algo interesante es que sı́ sirven para aproximar esas cantidades
con cualquier nivel de precisión que deseemos. La forma intuitiva de ver eso es que tomando n
suficientemente grande, podemos hacer que el racional 1/n sea tan pequeño cuanto queramos,
y con el segmento de longitud 1/n podemos desplazarnos del 0 tantas veces como sea necesario

37
hasta aproximar cualquier punto de la recta real con un error menor que 1/n.

Observación 17. El proceso de aproximar una cantidad irracional mediante un número racional
es un caso particular del proceso conocido como lı́mite, el cual será estudiado en los cursos de
cálculo.

Se puede extender a R la relación de orden, y el concepto de valor absoluto que se obtiene


de la misma, satisfaciendo las mismas propiedades listadas en la Proposición 2.2.4, con Q
sustituido por R.
La asociación de los números reales con la recta numérica, nos permite obtener una inter-
pretación geométrica del concepto de valor absoluto. En efecto, podemos definir la distancia
entre dos números reales a y b como

d(a, b) = |a − b|.

Por ejemplo, si a = 2 y b = −6, tendremos

d(2, −6) = |2 − (−6)| = |8| = 8,

lo que indica que 2 y −6 están separados por 8 unidades en la recta numérica.

Observación 18. En los cursos de álgebra o aritmérica de secundaria es usual hablar de


números fraccionarios (o quebrados), fracionarios propias e impropias, decimales, decimales
periódicos puros, periódicos mixtos, números mixtos, etc. Todo eso parece complicar más de
lo necesario lo que en el fondo es algo mucho más simple. Toda esa parafernalia de términos
se refieren a los números reales, que ahora sabemos que pueden ser sólo de dos tipos, a saber:
racionales e irracionales. Los racionales son los que podemos expresar mediante un cociente
(o fracción), de la forma m/n, con m y n enteros, y los irracionales aquellos que no podemos
expresar de esa forma. Con los racionales, ocurre que podemos también expresarlo en la lla-
mada notación decimal, y la misma puede tener sólo ciertas caracterı́sticas, a saber: tiene una
cantidad finita de decimales, o tine infinitas pero que repiten un patrón periódico ya sea inmedi-
atamente luego del punto decimal, o luego de una cantidad finita de posiciones decimales. Para
cada caso se aprenden técnicas que nos permiten obtener su fracción generatriz. Los iracionales
no pueden representarse mediante una fracción ni mediante una expansión decimal, pues puede
demostrarse que su expansión decimal necesariamente tendrá infinitos decimales que no siguen
ningún patrón predecible (no tiene periodicidades). Por tal motivo, desde el punto de vista com-
putacional, todo lo que podemos hacer es aproximar los irracionales mediante los racionales.

Por ejemplo, el valor de 2 es aproximadamente 1, 4142135623, y el de π es aproximadamente
3.14159265359, ambos con 11 posiciones decimales. Estas expresiones decimales son racionales,
pues sólo tienen una cantidad finita de decimales, y por tanto son sólo valores aproximados de

las cantidades irracionales 2 y π, respectivamente.

38
2.2.2 Operaciones básicas con números reales
Puede demostrarse que las operaciones básicas de los racionales: suma, resta, multiplicación, y
división, pueden extenderse al conjunto de los números reales, y satisfacen también todas las
propiedades listadas en la Proposición 2.2.1, simplemente cambiando Q por R.
La operación de potenciación también puede extenderse a los reales, tanto permitiendo
que las bases sean números reales, ası́ como permitiendo que los exponentes sean números
reales. Ninguna de estas extensiones son simples de definir, pero dejaremos asentado que,
en la Proposición 2.2.2, todas las propiedades siguen válidas si se permite que las bases sean
números reales, en tanto que los exponenetes permanezcan siendo enteros. Cuando a y b son
reales, la notación ab indica simplemente el cociente de dividir a entre b, y no necesariamente
es un número racional (recuerde que para que a/b sea racional, lo importante es que a y b sean
números enteros).
Por otro lado, si permitimos que los exponentes sean números reales, las cosas tienen una
mayor sutileza. De hecho, tan solo permitiendo que los exponentes pasen de ser enteros a ser
racionales ya nos conducirá a problemas si la base es negativa, y nos llevará una vez más a la
necesidad de extender nuestro conjunto numérico más alla de R. De momento consideraremos
sólamente la potenciación con exponente racional (o real) para bases no negativas. En estas
condiciones, siguen siendo válidas las propiedades listadas en la Proposición 2.2.2.
La potenciación con exponente racional está estrechamente ligada al concepto de radicación.
En efecto, para un r ∈ Q, podemos definir la r-ésima raı́z de un número a ≥ 0 como

r
a := a1/r .
√ √
De esta forma, vemos que ( r a)r = (a1/r )r = ar/r = a. Es decir r a es el número que elevado
a la r-ésima potencia es igual a a. Esta definición puede extenderse a r ∈ R, pero se requiere
un proceso de lı́mite que no tenemos disponible en este punto.

Observación 19. Notemos que, si r = 2, y a = −1, tendı́amos que 2 −1 = (−1)1/2 deberı́a ser
tal que su cuadrado sea igual a −1. Ningún número real puede satisfacer eso, pues el cuadrado
de un número real siempre es positivo. Esto muestra porqué nos restringimos por ahora a bases
positivas. Si permitimos que la base a sea negativa, todavı́a podemos definir su raiz r-ésima

para r ∈ N impar, mediante la condición ( r a)r = a, sin embargo, no podremos hacerlo para el
caso de r par. Lo que estamos viendo es que R no es un conjunto numérico lo suficientemente
amplio para la operación de radicación (o potenciación con exponente real).

Con la definición de radicación que hemos adoptado es simple verificar las siguiente propiedades
(simplemente expréselo en forma de potencia y aplique las propiedades de la potenciación)

Proposición 2.2.5. Para a y b reales positivos, y r ∈ R, se cumplen las siguientes propiedades


√ √ √
a) r ab = r a r b.

39

r a
r a
p
b) b
= r .

b
p√ √
c) r s a = rs a.

d) r ar = a

Prueba. Ejercicio.

La operación de potenciación plantea otro problema inverso aparte de la radicación, a saber,


la logaritmación. Dados un real positivo a y un real r, pongamos ar = b (note que b será siempre
positiva). La logaritmación consiste en determinar r, conociendo a y b. Notemos también que
si a = 1, entonces ar = b sólo serı́a válido si b = 1 Ası́, dados un números reales positivos a y b,
con a ̸= 1, definimos el logaritmo en base a de b, denotado mediante loga b como el número
r al cual debemos elevar la base a para obtener b. En sı́mbolos matemáticos, podemos expresar
esto como
loga b = r ⇔ ar = b. (2.3)

Ejemplo 2.2.6. Veamos algunos ejemplos.

a) Consideremos el valor de log2 8. Si llamamos r a este valor, de la definición vemos que


2r = 8, que sabemos, por inspección que se satisface para r = 3. Ası́, log2 8 = 3.

b) Consideremos log10 0.1 = r. Entonces 10r = 0.1 = 1


10
= 10−1 . Ası́, tenemos log10 0.1 =
−1.

En la notación loga b, al número a se lo llama base del logaritmo. Algunas bases aparecen
con más frecuencia que otras en las aplicaciones. La primera es a = 10, en cuyo caso se suele
omitir la indicación explı́cita de la base, y se escribe log1 0b = log b. Este caso se conoce como
el logaritmo común. El segundo caso es a = e, donde e es un número irracional conocido
como el número de Euler, y cuyo valor approximado es 2.71. En este caso se usa la notación
loge b = ln b, y se lo conoce como el logaritmo natural o el logaritmo neperiano, en honor
al matemático escocés John Napier, a quien se acredita la introducción de los logaritmos.
A continuación, listamos las propiedades fundamentales de la logaritmación.

Proposición 2.2.7. La logaritmación satisface las siguientes propiedades.

a) loga 1 = 0.

b) loga a = 1.

c) loga ax = x

d) aloga x = x

e) loga bc = loga b + loga c

f ) loga cb = loga b − loga c

40
g) loga bc = c loga b.
logc b
h) loga b = logc a
.

Prueba. Los ı́tems a) y b) quedarán como ejercicio. Probemos las demás.

c) En efecto, esto sigue directamente de la definición loga b = r ⇔ ar = b, pues ar = ax si y


sólo si r = x.

d) Esto de nuevo sigue directo de la definición aloga x = x ⇔ loga ax = x.

e) Tenemos, por el ı́tem d), que aloga b+loga c = aloga b aloga c = bc. Luego, por definición tenemos
loga bc = r = loga b + loga c.
aloga b
f) Tenemos aloga b−loga c = alogb c
= cb . Entonces, por definición, loga cb = loga b − loga c.

g) Pongamos loga b = r, entonces ar = b, y obtenemos

loga bc = loga (ar )c = loga arc = rc = c loga b.

h) Pongamos logc b = x, entonces tenemos cx = b = aloga b . Aplicando la logaritmación en


base c a ambos lados, obtenemos

logc b
x = logc aloga b = loga b · logc a = logc b =⇒ loga b = .
logc a

Observación 20. Las propiedades e), f ) y g) son las que han motivado históricamente el
estudio de los logaritmos, pues, en una época sin calculadoras digitales, permitı́a simplificar
los cálculos, convirtiendo productos y cocientes en sumas y potencias a productos. La última
propiedad indica que, si sabemos cómo calcular los logaritmos en una base dada, digamos en
base c, entonces podemos calcular en cualquier otra base a. A esta propiedad se la conoce como
cambio de base.

2.3 Números Complejos


Ya hemos dado un adelanto de la necedidad que tendrı́amos de extender el conjunto de los
reales dado que la potenciación con exponentes racionales (o radicación) plantea situaciones
que no tienen solución en R. Consideremos por ejemplo, la ecuación x2 = −1. Esta ecuación
plantea la búsqueda de un número x cuyo cuadrado es −1. Con nuestra notación de radicales,

tendrı́amos x = −1, pero este objeto no pertenece a R, pues sabemos que ningún número
real tiene un cuadrado negativo.

41
Observación 21. Uno puede plantearse la cuestión de porqué querrı́amos hallar dicho número,
pues si en R no existe, es plausible pensar que esta ecuación no tiene ninguna conexión con
nuestra realidad. Desde un punto de vista puramente matemático, uno de hecho no da énfasis
aquı́ a la noción de número. Desde este punto de vista, la cuestión es simplemente la siguiente:
Existe un objeto matemático, susceptible de ser multiplicado por sı́ mismo y que de como re-
sultado el negativo de la unidad en R? Por otro lado, históricamente la necesidad de resolver
x2 = −1 de hecho surgió como parte de los procesos para resolver cuestiones planteadas sobre los
números reales y con soluciones en los números reales. Concretamente, el estudio de las ecua-
ciones polinomiales cúbicas, realizada por Tartaglia, Cardano, entre otros, a mediados del siglo
XV I, con soluciones reales, de una forma inexplicable para la época, conducı́a a la manipu-

lación de expresiones como −1. Finalmente, muchos años después de que los matemáticos

comenzaron a estudiar las propiedades de objetos como −1, resulta que el mismo se torna una
herramienta indispensable en las ciencias y la ingenierı́a, y aparece ligada de forma intrı́nseca
en la formulación matemática de la teorı́a cuántica, una de las teorı́as cientı́ficas más exitosas
que tenemos.

Ya sea por curiosidad matemática, o por necesidad cientı́fica, la resolución de x2 = −1 nos


exige ampliar una vez más nuestro conjunto numérico. Esto nos lleva a lo que llamaremos
números complejos.
Un número complejo es una expresión de la forma a + ib, siendo a y b números reales,

y el sı́mbolo i se usa para denotar −1. Dado un número complejo a + ib llamaremos a a
su parte real y a b su parte imaginaria. Al conjunto de todos los números complejos lo
denotaremos como C. Los números complejos pueden sumarse y multiplicarse entre sı́ mediante
las siguientes reglas

(a + bi) + (c + di) := (a + b) + (c + d)i,


(2.4)
(a + bi) · (c + di) := (ac − bd) + (ad + bc)i.

Observación 22. Una forma de recordar la regla de multiplicación compleja es pensando que
todos los sı́mbolos en a + ib y c + id son reales, y aplicar la distributividad del producto de reales,
pero recordando la regla adicional de que i2 := −1. También es usual hacer las identificaciones
a + 0i = a y 0 + bi = bi. El primer caso, permite ver el conjunto R como un subconjunto de C,
y se dice que el número complejo es “real”, aunque técnicamente esto no sea ası́. En el segundo
caso, se dice que el número complejo es “imaginario puro”.

Ejemplo 2.3.1. Veamos algunos ejemplos concretos. Supongamos que z1 = 3+2i y z2 = 4−5i.
Entonces

z1 + z2 = (3 + 2i) + (4 − 5i) = (3 + 4) + (2 − 5)i = 7 + (−2)i = 7 − 2i.

42
y

z1 z2 = (3 + 2i)(4 − 5i) = (3 · 4 − 2 · (−5)) + (3 · (−5) + 2 · 4)i = 22 + (−7)i = 22 − 7i.

A continuación, listamos en una proposición las propiedades fundamentales que satisfacen


las operaciones de suma y producto de números complejos.

Proposición 2.3.2. La suma y producto de números complejos satisfacen las siguientes propiedades.

a) La suma y el producto son conmutativos, es decir, para todo par de complejos z1 , z2 se


tiene
z1 + z2 = z2 + z1 ; z1 z2 = z2 z1 .

b) La suma y el producto son asociativos, es decir, para cualesquiera complejos z1 , z2 y z3 ,


se tiene
z1 + (z2 + z3 ) = (z1 + z2 ) + z3 ; z1 (z2 z3 ) = (z1 z2 )z3 .

c) El número complejo 0 + 0i = 0 es neutro para la suma, es decir, para cualquier complejo


z se tiene
z + (0 + 0i) = z.

d) Dado un complejo z = a + bi, el complejo −z := −a + (−b)i es su opuesto aditivo, es


decir
z + (−z) = 0 + 0i = 0.

e) El número complejo 1 + 0i = 1 es la identidad para el producto, es decir, para cualquier


complejo z, se tiene
z(1 + 0i) = z.

f ) Dado un complejo z = a + bi distinto de 0 + 0i, el número complejo z −1 := a


a2 +b2
+ a2−b
+b2
i
es el inverso multiplivatico de z, es decir

zz −1 = 1 + 0i = 1.

g) El producto es distributivo sobre la suma, es decir, para cualesquiera z1 , z2 , z3 , complejos,


tenemos
z1 (z2 + z3 ) = z1 z2 + z1 z3 .

Prueba. Ejercicio.

Al neutro aditivo, 0 + 0i = 0 lo llamaremos cero complejo o simplemente cero, si no hay


riesgo de confusión. A la identidad multiplicativa, 1+0i = 1, la llamaremos unidad compleja,
o simplemente unidad, si no hay riesgo de confusión.

43
La existencia de los opuestos aditivos e inversos multiplicativos, para los elementos no nulos,
permiten definir en C la resta y la división, de la misma forma como lo hemos hecho en Q, a
saber: dados dos complejos z1 y z2 definimos

z1 − z2 := z1 + (−z2 ),

y si z2 es no nulo, entonces
z1
:= z1 z2−1 .
z2
En particular, se puede demostrar a partir de la asociatividad, que las leyes de corte son
válidas en C, es decir:

z1 + z2 = z1 + z3 =⇒ z2 = z3 ; z1 z2 = z1 z3 =⇒ z2 = z3 si z1 es no nulo.

También es consecuencia de la asociatividad la regla de los signos. Ası́, todas las manipulaciones
algebraicas con los números reales son válidas con números complejos, teniendo en cuenta que
a la hora de realizar las operaciones, se deben respetar las definiciones dadas en la ecuación
(2.4).

Observación 23. Algo relevante es que en los complejos C no podemos extender la relación
de orden que tenemos en R. Esto tiene que ver con algo más fundamental, que establece que R
es “esencialmente” el único cuerpo ordenado completo1 . Aquı́, “cuerpo” significa básicamente
que se tienen las 4 operaciones básicas (suma, resta, multiplicación y división), “ordenado”
significa que existe una relación de orden, y “completo” tiene que ver con el hecho de que no hay
“huecos”, lo cual hemos visto intuitivamente con la recta numérica real. Resulta que C también
es un cuerpo y también es completo, y por tanto si tuviera un “orden”, serı́a “esencialmente”
igual a R, pero no lo es. Por tanto, no puede tener una relación de orden.

En la observación anterior vimos que no es posible extender a C nuestra relación de orden de


R. Sin embargo, podemos introducir una noción similar al valor absoluto, que a cada complejo
le asigna un número real, y sobre dicho concepto sı́ podremos aplicar la relación de orden de
los reales.
Comencemos observando que, si introducimos dos ejes mutuamente perpendiculares en el
plano, digamos uno horizontal, al que llamaremos Re y otro vertical, al que llamaremos Im, cada
uno de estos ejes podemos identificarlo con R, y dado un número complejo z = a + bi, podemos
identificar su parte real a con su punto correpondiente en el eje Re, y su parte imaginaria b
con su punto correspondiente en el eje Im (ver Figura 2.2). De esta forma, el punto (a, b) de
R × R corresopnderá de forma única al número complejo a + bi. La representación gráfica de los
complejos según se ilustra en la Figura 2.2 se llama diagrama de Argand, o también plano
de Gauss.
1
El término preciso es que es único a menos de isomorfismos.

44
Figure 2.2: Diagrama de Argand

Dado un número complejo z = a + bi, definimos su conjugado mediante

z := a − bi.

y su módulo mediante

|z| := a2 + b 2 .

En el diagrama de Argand, z serı́a el reflejo especular de z respecto del eje Re, y |z| serı́a la
longitud del segmento de recta que conecta el origen con el punto (a, b).

Observación 24. Notemos que podemos pensar en la conjugación como una función que va de
C a C y en el módulo como una función que va de C a R. Esta visión en términos de funciones
será más relevante a medida que incursionemos en cursos más avanzados.

En la siguiente proposición listamos algunas propiedades útiles del módulo y de la conju-


gación.

Proposición 2.3.3. La conjugación y el módulo satisfacen las siguientes propiedades.

a) z = z.

b) z + w = z + w; z · w = z · w.

45
c) z + z = 2Re(z).

d) |z| ≥ 0 y se tiene igualdad sólo si z = 0 + 0i.

e) |z| = |z|.

f ) |zw| = |z||w|.

g) Re(z) ≤ |z|.

h) zz es imaginario puro, y |z|2 = Re(zz) = zz.

i) |z + w| ≤ |z| + |w|

Prueba. Los primeros 5 ı́tems quedan como ejercicios. Probemos los demás ı́tems.

f) Dado z = a + bi, y w = c + di, tenemos zw = (ac − bd) + (ad + bc)i, y por tanto

|zw|2 = (ac − bd)2 + (ad + bc)2 = a2 c2 − 2abcd + b2 d2 + a2 d2 + 2abcd + b2 c2


= (a2 + b2 )c2 + (b2 + a2 )d2 = (a2 + b2 )(c2 + d2 ) (2.5)
= |z|2 |w2 | = (|z||w|)2 .

Ası́, extrayendo raı́z cuadrada de ambos lados, obtenemos |zw| = |z||w|.

g) Tenemos Re(z) = a y |z 2 | = a2 + b2 ≥ a2 . Por tanto Re(z) = a ≤ |a| ≤ |z|.

h) Tenemos z = a + bi y z = a − bi, por tanto

zz = a2 + b2 + (ab − ab)i = a2 + b2 + 0i,

y por tanto |z|2 = a2 + z 2 = Re(zz) = zz.

i) Tenemos |z + w|2 = (z + w)(z + w). Desarrollando el producto, obtenemos

|z + w|2 = zz + zw + wz + ww
= |z|2 + |w|2 + zw + zw = |z|2 + |w|2 + 2Re(zw) (2.6)
≤ |z|2 + |w|2 + 2|zw| = (|z| + |w|)2 .

Extrayendo raı́z cuadrada de ambos lados, obtenemos |z + w| ≤ |z| + |w|.

46
2.3.1 Representaciones de números complejos
La forma en que hemos introducido los números complejos, a saber a + bi, se conoce como
la forma rectangular o forma cartesiana, debido a la posibilidad de identificar el número
complejo a + bi con el par ordenado (a, b) en el diagrama de Argand. Veremos ahora otras
formas de representar el número complejo z = a + bi, haciendo uso del módulo |z| y del ángulo
φ (Ver Figura 2.2).
Comencemos estableciendo una criterio para medir ángulos en el diagrama de Argand.
Tomaremos como referencia el eje Re positivo, y a partir de allı́ consideraremos que una rotación
en sentido antihorario corresponderá a un ángulo positivo y una rotación en sentido horario
corresponderá a un ángulo negativo.
De esta forma, vemos que

a = |z| cos φ,
(2.7)
b = |z| sin φ.

donde φ = arctan(b/a), y por lo tanto, el número complejo z = a + bi puede expresarse como

z = |z|(cos φ + i sin φ),

que se conoce como la forma polar o forma trigonométrica, del número complejo z.
El ángulo φ recibe el nombre de argumento. Observemos Dicho valor no queda unı́vocamente
dererminado por z = a + bi, pues las funciones trigonométricas tienen una periodicidad de
2nπ, con n entero. Por tal motivo, se denomina arg(z) al conjunto de todos los valores de
φ = arctan(b/a) y Arg(z) al valor que pertence al intervalo (−π, π]. Al valor Arg(z) se lo
llama argumento principal del número complejo z = a + bi. Ası́, tenemos

arg(z) = {Arg(z) + 2nπ; n ∈ Z}.

Observación 25. Observemos que si z = |z|eiφ y w = |w|eiθ , entonces

z = |z| cos φ + i|z| sin φ

y
w = |w| cos θ + i|w| sin θ,

y por lo tanto z = w si, y sólo si

|z| = |w|; θ = φ ± 2nπ, n ∈ Z .

Usaremos el sı́mbolo eiφ para denotar el número complejo cos φ + i sin φ, lo cual nos permite

47
escribir el número complejo z = a + bi = |z|(cos φ + i sin φ) en la llamada forma exponencial:

z = |z|eiφ .

Observación 26. De momento eiφ es para nosotros apenas un sı́mbolo que representa al número
complejo cos φ + i sin φ, sin embargo, la notación no es accidental. En cursos más avanzados
veremos que puede definirse la función exponencial compleja, y la igualdad eiφ = cos φ + i sin φ,
siendo e el número de Euler, es conocida como la identidad de Euler, y es uno de los
resultados fundamentales del análisis complejo.

Las formas polar y exponencial son especialmente interesantes para realizar productos y
divisiones de números complejos. Veamos por qué. Supongamos que tenemos dos números
complejos z = |z|eiφ y w = |w|eiθ . Entonces, podemos escribir

z = |z|eiφ = |z|(cos φ + i sin φ)


(2.8)
w = |w|eiθ = |w|(cos θ + i sin θ).

y por lo tanto

zw = |z||w|[(cos φ cos θ − sin φ sin θ) + (cos φ sin θ + sin φ cos θ)i]


= |z||w|(cos(φ + θ) + i sin(φ + θ)) (2.9)
= |z||w|ei(φ+θ) .

donde hemos usado las identidades trigonométricas estándares de coseno y seno de la suma de
arcos.
Por otro lado, observemos que

eiφ e−iφ = eiφ ei(−φ) = (cos φ + i sin φ)(cos(−φ) + i sin(−φ))


= (cos φ + i sin φ)(cos φ − i sin φ) (2.10)
= (cos2 φ + sin2 φ) + i(− cos φ sin φ + sin φ cos φ) = 1 + 0i.

Y por lo tanto, e−iφ es el inverso multiplicativo de eiφ . De esto sigue que si z = |z|eiφ es un
1 −iφ
complejo no nulo, entonces z −1 = |z| e , pues tenemos

1 −iφ |z| iφ −iφ


|z|eiφ e = e e = 1 + 0i.
|z| |z|

Finalmente, de esto concluimos que si z = |z|eφ y w = |w|eiθ , entonces

z 1 −iθ |z| i(φ−θ)


= zw−1 = |z|eiφ e = e .
w |w| |w|

Vemos ası́ que las multiplicaciones y divisiones de complejos se realizan de forma mucho

48
más eficiente usando la representación exponencial.
Observemos, para cerrar esta sección, que si z = |z|eiφ , entonces z n = |z|n einφ , para
cualquier entero z.

Ejemplo 2.3.4. Consideremos los complejos z = −2 + 2i y w = 1 + 2i. Entonces tenemos


√ 3π √ π
z = 8ei 4 y w = 5ei 3 . Ası́, Arg(z) = 3π
4
y Arg(w) = π3 . Por otra parte, tenemos
√ √ i 3π + π √
8 5e ( 4 3 ) = 40ei 12 .
13π
zw =

Vemos que el argumento que obtenemos para zw sumando los argumentos principales de z y
w es un valor mayor que π, y por lo tanto no es el argumento principal de zw. Es decir, en
general no se tiene la igualdad Arg(zw) = Arg(z) + Arg(w). Para obtener Arg(zw), debemos
sumar algún múltiplo entero de π al valor 13π/12 de tal forma a obtener un valor en el intervalo
(−π, π]). En este caso, tenemos

13 11
Arg(zw) = π − 2π = − π.
12 12

2.3.2 Fórmula de De Moivre - Raı́ces de la unidad


Observemo que la potenciación z n = |z|n einφ , aplicado a z = eiφ se reduce a (eiφ )n = einφ .
Escribiendo esto en la forma trigonométrica, obtenemos

(cos φ + i sin φ)n = cos(nφ) + i sin(nφ). (2.11)

Esta ecuación se conoce como la formula de De Moivre.


Consideremos ahora el problema de determinar la raiz n-ésima de un número complejo.
Esto es, consideremos un complejo z0 = |z0 |eiφ0 , y queremos hallar un complejo z = |z|eiφ tal
que z n = z0 . Es decir, tal que
|z|n einφ = |z0 |eiφ0 .

De la Observación 25, vemos que debemos tener


p
n φ0 2kπ
|z| = |z0 |; nφ = φ0 ± 2kπ =⇒ φ = ± ;k ∈ Z.
n n
Observemos que dado n ∈ N, tendremos n complejos diferentes que son raı́ces n-ésimas del
complejo dado, a saber, los complejos
φ0 2kπ
|z0 |ei( n ± ) ; k = 0, 1, 2, . . . , k − 1.
p
n
ck = n

1/n
Es usual usar la notación z0 para denotar el conjunto completo de las raı́ces n-ésimas
1/n
del complejo z0 . Cuando z0 = r0 ∈ R, es un real positivo, el sı́mbolo r0 denota también

el conjunto completo de raı́ces de r0 , en tanto que el sı́mbolo n r0 se reserva para la única

49
φ0
raı́z positiva. También, cuando φ0 = Arg(z0 ), entonces a c0 = n |z0 |ei( n ) se lo llama raı́z
p

principal.
Un caso de especial importancia es cuando z0 = 1 = ei0 . Entonces, dado n ∈ N, los números
complejos
2kπ
ck = ei( n ) ; k = 0, 1, 2, . . . , n − 1,

se conocen como las raı́ces de la unidad. En el diagrama de Argand, corresponden a pun-


tos distribuidos uniformemente con separación 2π/n sobre la circunferencia de radio unidad.
Para complementar y profundizar todo lo que discutimos aquı́ sobre números complejos, el
lector puede consultar la referencia [Churchill]. Como una fuente abundante de ejercicios, se
recomienda la referencia [5]

50
CAPÍTULO 3

Expresiones y Funciones Algebraicas

En este capı́tulo realizaremos un estudio de las expresiones algebraicas. Entenderemos por ex-
presión algebraica una combinación finita de las operaciones básicas, incluyendo la potenciación
(base variable con exponente constante) y la radicación (exponente racional). Sin embargo, en
esta categorı́a no entrará la logaritmación ni la exponenciación (exponente variable).
De entre las expresiones algebraicas, el objeto más simple es el polinomio, y le dedicaremos
la primera parte de este capı́tulo. Asumiremos que se tiene familiaridad con las manipula-
ciones básicas con polinomios, como son la suma, resta, multiplicación, división, factorización
y cálculo de mı́nimo común múltiplo y máximo común divisor de polinomios. De esa forma,
nos centraremos en establecer propiedades fundamentales de los polinomios, haciendo un par-
alelismo con resultados válidos en los enteros. En la parte final del capı́tulo, estableceremos
la conección entre las expresiones algebraicas con las funciones, y en dicho contexto estudiare-
mos las funciones polinomiales, las racionales y las irracionales. El estudio de estas funciones
es fundamental para los cursos de cálculo. El contenido desarrollado en esta unidad puede
complementarse, especialmente para ejercicios, con los textos [9, 10].

3.1 Polinomios
Un polinomio en x es una expresión de la forma

an xn + an−1 xn−1 + · · · + a1 x + a0 ; n ∈ N (3.1)

El sı́mbolo x se conoce como la indeterminada del polinomio, y a los ai se conocen como


coeficientes. Las propiedades de este tipo de objetos matemáticos depende crucialmente del
conjunto al cual pertenecen los coeficientes. En general, para que podamos sumar y multiplicar

51
polinomios, los coeficientes deben pertenecer a algún conjunto donde podamos sumar y mul-
tiplicar. Sabemos que podemos hacer eso en cualquiera de los conjuntos N, Z, Q, R y C, pero
también se puede hacer en otros conjuntos que aún no hemos visto, pero serán importantes
pronto en cursos más avanzados. Por el momento, nosotros estaremos interesados principal-
mente en dos casos, a saber: que los coeficientes sean reales (ai ∈ R) o que los coeficientes sean
complejos (ai ∈ C).

Observación 27. Notemos que si todos los coeficientes son, por ejemplo enteros, del hecho
que tenemos las inclusiones Z ⊂ Q ⊂ R ⊂ C, podemos siempre suponer que los coeficientes son
complejos. El punto es que la restricción sobre los coeficientes puede tener repercusiones en las
propiedades de los polinomios. Veremos un caso concreto de esto en breve.

Observación 28. El término indeterminada hace referencia a que en general x no es ele-


mento de ningún conjunto. El sı́mbolo x y sus “potencias” sirven apenas como etiquetas. En
particular, x2 no significa que x sea elemento de algún conjunto donde pueda tomar poten-
cias. Esto es sutil, pero importante, y tendremos ocasión de profundizarlo más adelante cuando
veamos las “funciones polinomiales”.

En la expresión (3.1), cuando an ̸= 0, al número natural n se lo llama el grado del


polinomio, y el término an xn se conoce como término lı́der. Al coeficiente a0 se lo conoce
como término constante o término independiente.
Usaremos las notaciones R[x] y C[x] para denotar, respectivamente, los conjuntos de todos
los polinomios en x con coeficientes reales y complejos. Ası́, por ejemplo

2x3 + 3x + 2 ∈ R[x]

y
(3 + 2i)x2 + 5 ∈ C[x].

Notemos que de R ⊂ C, sigue que también podemos pensar en R[x] como subconjunto de C[x].
Cuando no queremos especificar si los coeficientes son reales o complejos, o queremos discutir
propiedades que son válidas en cualquier caso, usaremos la notación K para representar tanto
a R como a C. Ası́, K[x] es el conjunto de todos los polinomios en x con coeficientes ya sean
reales o complejos.
Si denotamos por p un elemento de K[x], entenderemos que para algún n ∈ N se tiene

p = pn xn + pn−1 xn−1 + · · · + p1 x + p0 ,

con pn no nulo. Si q es otro elemento de K[x], entonces para algún m ∈ N tendremos

q = qm xm + pm−1 xm−1 + · · · + q1 x + q0 ,

con qm no nulo.

52
Sabemos que estos polinomios pueden sumarse, y que el polinomio 0, que tiene todos sus
coeficientes iguales a cero es neutro para la adición, y nos permite definir el opuesto de un
polinomio p. En efecto, tenemos

−p := −pn xn − pn−1 xn−1 − · · · − p1 x − p0 ,

y como sabemos
p + (−p) = 0.

Dado el opuesto de un polinomio p, podemos definir la resta de polinomios, de la misma forma


como lo hicimos para los conjuntos numéricos, esto es q − p := q + (−p).
También sabemos multiplicar los polinomios p y q, y sabemos que el polinomio 1, que tiene
todos los coeficientes iguales a cero, excepto el término constante, que es igual a 1, actua como
identidad para el producto. Sin embargo, no podemos garantizar que dado cualquier polinomio
p exista otro que sea su inverso multiplicativo, es decir, un polinomio p̃ que cumpla pp̃ = 1.
Lo que acabamos de observar en relación a la suma y producto de polinomios es muy similar
a lo que tenı́amos para la suma y producto en los enteros, Z, de hecho, son válidas para los
polinomios exatamente las mismas propiedades listadas en la Proposición 2.1.1.

3.1.1 Algoritmo de la división para polinomios


La falta de inversos multiplicativos hace que no podamos en general dividir dos polinomios
de forma exacta, es decir, que dados dos polinomio p y q, tengamos que pq sea de nuevo un
polinomio. Pero de forma similar a lo que tenı́amos en Z, para los polinomioes también existe
el concepto de división con resto. Vamos a profundizar un poco en dicha situación.
Comencemos introduciendo un poco de notación. Dado un polinomio p ∈ K[x], denotaremos
mediante deg(p) ∈ N el grado del polinomio, y pondremos, por definición deg(0) = −∞. Es
decir, por definición, el grado del polinomio 0 será menos infinito.

Teorema 3.1.1 (Algoritmo de la división para polinomios). Dados dos polinomios f y g, tal
que g ̸= 0, entonces existen dos únicos polinomios q y r tal que

f = gq + r,

con r = 0 o bien grado de deg(r) ≤ deg(g).

Prueba. Consideremos el conjunto

R = {f − gp; p ∈ K[x]}.

Si 0 ∈ R, entonces f = gp, lo cual significa que g divide a f , con cociente p y resto nulo.
En este caso ya no hay nada que probar.

53
Caso contrario, los grados de los elementos de R conforman un subconjunto no vacı́o de los
naturales, y por lo tanto admiten un elemento mı́nimo, digamos m. Sea r ∈ R un polinomio
cuyo grado es este mı́nimo m. Dicho polinomio es de la forma r = f − gq, con q ∈ K[x], y por
lo tanto tenemos
f = gq + r.

Afirmamos que deg(r) < deg(g). Pongamos

r = rm xm + rm−1 xm−1 + · · · + r1 x + r0

y
g = gn xn + gn−1 xn−1 + · · · + g1 x + g0 ,

donde rm y gn son no nulos. Supongamos que m ≥ n. Entonces podemos considerar el


polinomio
rm m−n
s=r− x g
gn
rm gn−1 m−1 rm g0 m−n (3.2)
= rm xm + rm−1 xm−1 + · · · + r1 x + r0 − rm xm − x − ··· − x
gn gn

el cual tiene grado menor que m, pero además satisface


 
rm m−n rm m−n rm m−n
s=r− x g = f − gq − x g =a−g q+ x ∈ R,
gn gn gn

con lo cual se contradice la minimalidad del grado m. Por tanto, debemos tener m < n, esto
es, deg(r) < deg(b).
Falta ver la unicidad de los polinomios q y r. Para ello, supongamos que r̃ y q̃ son otro par
de polinomios que satisfacen las condiciones dadas, entonces tenemos

gq + r = f = g q̃ + r̃,

de donde sigue que


g(q − q̃) = r̃ − r.

Si esta igualdad no es nula, entonces el polinomio de la derecha tiene grado menor o igual que
m, que s su vez es menor que deg(g) en tanto que el polinomio de la izquierda tiene grado mayor
mayor o igual que deg(g). Esto serı́a una contradicción, por lo cual debemos tener r̃ − r = 0,
es decir r = r̃ y g(q − q̃) = 0, de donde sigue q − q̃ = 0 y por tanto q = q̃.

Cuando en el algoritmo de la división obtenemos r = 0, entonces f = gq, y decimos que g


y q son factores o divisores de f , y que f = gq es una factorización de f .

Ejercicio 3.1.2. Dados f, g ∈ K[x], muestre que si h ∈ K[x] es un factor común de f y g,


entonces h es factor de pf + qg, para cualesquiera polinomios p, q ∈ K[x].

54
Nos gustarı́a introducir el concepto de máximo común divisor, pero en los polinomios no
tenemos un orden como en Z, y por lo tanto el concepto de “máximo” no es inmediato. Para
poder introducir la idea de máximo común divisor, necesitamos una definición previa adicional.
Diremos que un polinomio p ∈ K[x] es mónico si el coeficiente del término lı́der es 1.
Dados dos polinomios f, g ∈ K[x], no ambos nulos, su máximo común divisor, que
denotaremos mediante mcd(f, g), es el polinomio mónico de mayor grado que divide tanto a f
como a g. Mostraremos ahora un resultado similar a la identidad de Bezout que hemos probado
sobre el máximo común divisor en Z.

Teorema 3.1.3. Dados f, g ∈ K[x], no ambos nulos, el mcd(f, g) es el polinomio mónico de


menor grado que puede escribirse como

pf + qg,

con p, q ∈ K[x].

Prueba. Consideremos el conjunto

R := {pf + qg; p, q ∈ K[x], deg(r) ≥ 0}.

Los grados de estos polinomios conforman un subconjunto de Z acotado inferiormente, y como


tal admite un elemento mı́nimo, digamos m. Sea d ∈ R un polinomio cuyo grado es m. Si lo
dividimos por el coeficiénte de su término lı́der, obtendremos un polinomio mónico de grado m,
en R, al cual seguiremos denotando por d. Este polinomio mónico es único, pues si ˜[d] fuese otro
polinomio mónico de grado m tendrı́amos d − d˜ ∈ R con grado menor que m, contradiciento la
minimalidad de m.
Afirmamos ahora que d divide tanto a f como a g. En efecto, tenemos del algoritmo de la
división que
f = dα + r,

con r = 0, o bien deg(r) < deg(d) = m. Si r no fuese nulo, reordenando tendremos

r = f − dα = f − (pf + qg)α = (1 − p)f − qg ∈ R,

lo cual contradice la minimalidad de m. Por tanto debemos tener r = 0, es decir, d es factor


de f . Análogamente se muestra que d es factor de g. Para mostrar que d es el factor común
de grado máximo, supongamos que h sea otro factor común de f y g. Entonces h divide a d
(Ejercicio 3.1.2), y por lo tanto deg(h) ≤ deg(d).

Hasta ahora hemos visto que hay mucha similitud entre los números enteros Z y los poli-
nomios K[x]. Un concepto crucial en Z fue el de los números primos, los cuales eran “ir-
reducibles” en el sentido de que no es posible expresarlos como productos de números más
pequeños. En K[x] podemos introducir una idea similar. Decimos que un polinomio p ∈ K[x]

55
es irreducible si es imposible factorizarlo en K[x]. Es decir, no existen polinomios en K[x]
cuyo producto sea p.
Lo novedoso aquı́, en relación a Z es que la irreducibilidad de un polinomio depende del
conjunto K en el cual tomamos los coeficientes. Por ejemplo, el polinomio x2 + 1 puede verse
tanto en R[x] como en C[x]. En el segundo caso, este polinomio no es irreducible, pues tenemos
su factorización
(x + i)(x − i) = x2 + xi − ix − i2 = x2 + 1.

Veremos más adelante que este mismo polinomio es irreducible visto en R[x].
Con el concepto de polinomios irreducibles tenemos un resultado análogo al Lema de Gauss
para números enteros. Concretamente, tenemos el siguiente resultado.

Teorema 3.1.4. Sea p ∈ K[x] es irreducible, y f, g ∈ K[x] tales que p divide al producto f g.
Entonces p devide al menos uno de los factores f o g.

Prueba. Dado que p divide al producto f g, tenemos f g = pq, para algún q ∈ K[x]. Supongamos
que p no divide a f . Entonces, dado que p es irreducible en K[x], tenemos

mcd(p, f ) = 1 = αp + βf

para ciertos polinomios α, β ∈ K[x]. Multiplicando esta igualdad por g tendremos

g = αpg + βf g = αpg + βqp = p(αg + βq). (3.3)

Es decir, p divide a g.

Ejercicio 3.1.5 (Algoritmo de Euclides para polinomios). Dados f, g ∈ K[x], no ambos nulos,
muestre que si f = gq + r, en el algoritmo de la división, entonces mcd(f, g) = mcd(g, r).
Explique cómo usar esto para calcular el mcd de dos polinomios.

Con el concepto de polinomio irreducible podemos también enunciar un resultado análogo


al Teorema Fundamental de la Aritmética. Concretamente, tenemos el siguiente resultado de
factorización única.

Teorema 3.1.6 (Factorización única de polinomios). Todo polinomio p ∈ K[x], de grado mayor
o igual que 1, se puede factorizar como una constante a ∈ K por el producto de polinomios
mónicos irreducibles. Dicha factorización es única a menos de reordenamiento de factores.

Prueba. Si p ∈ K[x] es irreducible, digamos

p = pn xn + pn−1 xn−1 + · · · + p1 x + p0 ,

con pn ̸= 0, entonces tenemos


 
n pn−1 n−1 p1 p0
p = pn x + x + ··· + x + ,
pn pn pn

56
donde el polinomio entre paréntesis es mónico e irreducible.
Caso contrario, tendremos p = f g, para ciertos polinomios f, g ∈ K[x] de grado menor que p.
Si éstos polinomios son irreducibles, factorizamos el coeficiente de su término lı́der y tendremos
p como una constante por polinomios mónicos irreducibles. Caso contrario, tendremos f o g, o
ambos, como producto de factores de menor grado. Procediento de esta forma, obtendremos p
como producto de una constante por producto de polinomios mónicos de grado cada vez menor.
Estos factores eventualmente serán irreducibles, pues el grado de cada uno va disminuyendo y
todo polinomio de grado 1 es irreducible.
Supongamos ahora que
af (1) · · · f (r) = p = bg (1) · · · f (s)

son dos factorizaciones de p con las caraterı́sticas enunciadas. Entonces a = b, y podemos


simplificarlo, obteniendo
f (1) · · · f (r) = g (1) · · · f (s) .

Dado que f (1) es irreducible y divide al producto g (1) · · · g (s) , entonces dividirá a alguno de los
factores g (i) . Reordenando si es necesario, podemos asumir que f (1) divide a g (1) , y como ambos
son irreducibles, deben ser iguales. Ası́ tenemos

f (2) · · · f (r) = g (2) · · · f (s) .

Repitiendo el argumento sucesivamente, concluimos que r = s y f (i) = g (i) , para cada i =


1, 2, . . . , s.

Ejemplo 3.1.7. Con el teorema de factorización única vemos que x2 + 1 es irreducible en R[x],
pues tenemos x2 +1 ∈ R[x] ⊂ C[x]. Ası́, cualquier factorización de x2 +1 en R[x] serı́a también
una factorización en C[x], pero hemos visto explı́citamente que en C[x] la factorización es

x2 + 1 = (x + i)(x − i),

y no puede haber otra, por la unicidad que hemos probado.

3.1.2 Raı́ces y Teorema Fundamental del Álgebra


Dado un elemento a ∈ K y un polinomio p ∈ K[x], digamos

p = pn xn + pn−1 xn−1 + · · · + pi x + p0 ,

decimos que el elemento

p(a) := pn an + pn−1 an−1 + · · · + p1 a + p0 ∈ K

es el valor numérico de p en a. Decimos que a es una raı́z de p si p(a) = 0.

57
Observación 29. Notemos que para determinar el valor numérico de p en a simplemente
“substituimos” la indeterminada x por el valor a, y efectuamos las operaciones. Esto induce a
pensar que el polinomio p es una función cuya variable es x. Enfatizemos aquı́ que un polinomio
p NO ES UNA FUNCIÓN. Un polinomio p en x es simplemente una expresión que tiene la
forma indicada en (3.1), y que dados dos de ellos sabemos cómo sumarlos y cómo multiplicarlos,
lo cual nos permite hablar de factores, múltiplos, cocientes y restos, de la misma forma como
tenemos dichos conceptos para números enteros. Todo esto lo podemos hacer sin preocuparnos
por cuál es el conjunto al cual pertenece la indeterminada x. Dicho esto, veremos en breve las
“funciones polinomiales”, para las cuales sı́ será importante identificar a qué conjunto pertenece
su variable x.

El primer resultado interesante que podemos observar sobre las raı́ces complejas de un
polinomio es que dado un polinomio p ∈ R[x] ⊂ C[x] ocurren siempre en pares conjugados.
Enunciemos este resultado como un Teorema, para futuras referencias.

Teorema 3.1.8 (Teorema de las raı́ces complejas). Dado p ∈ R[x] ⊂ C[x]. Si z ∈ C es una
raı́z de p entonces z también es raı́z de p.

Prueba. En efecto, pongamos

p = p n xn + · · · + p 1 x + p 0 ,

con pi ∈ R. Si z ∈ C es una raı́z, entonces

0 = pn z n + · · · + p1 z + p0

donde, conjugando ambos miembros, tenemos

0 = pn z n + · · · + p1 z + p0 = pz n + · · · + p1 z + p0 = pn z n + · · · + p1 z + p0 .

Es decir, z también es raı́z de p.

Teorema 3.1.9 (Teorema del resto). El esto de dividir un polinomio p ∈ K[x] entre el binomio
x − a ∈ K[x] es igual al valor numérico de p en a.

Prueba. En efecto, del algoritmo de la división tenemos

p = (x − a)q + r.

Por lo tanto, p(a) = (a − a)q(a) + r = r.

El siguiente resultado, que establece la relación fundamental que existe entre los conceptos
de raı́z y factor de un polinomio, es una consecuencia inmediata del teorema precedente.

58
Corolario 3.1.10 (Teorema del factor). Un elemento a ∈ K es raı́z de p ∈ K[x] si, y sólo si,
el binomio (x − a) ∈ K[x] es un factor de p.

Prueba. En efecto, del teorema precedente p = (x − a)q + p(a), y por lo tanto 0 = p(a) si y
solamente si (x − a) es factor de p.

El siguiente resultado es un criterio útil para determinar raı́ces de polinomios con coeficientes
enteros.

Teorema 3.1.11 (Teorema de la raı́z racional). Consideremos un polinomio

p = pn xn + pn−1 xn−1 + · · · + p1 x + p0 ,

a
tal que los coeficientes son enteros y p0 , pn son no nulos. Si b
∈ Q es raı́z de p con a y b primos
relativos, entonces a es factor de p0 y b es factor de pn
a
Prueba. Si b
∈ Q es raı́z de p, entonces

p(a/b) = pn (a/b)n + pn−1 (a/b)n−1 + · · · + p1 (a/b) + p0 = 0.

Multiplicando ambos miembros por bn , obtenemos

pn an + pn−1 an−1 b + · · · + p1 abn−1 + p0 bn = 0. (3.4)

Factorizando a y reordenando, obtenemos

a(pn an−1 + pn−1 an−1 b + · · · + p1 bn−1 ) = −p0 bn ,

es decir, a es factor de p0 bn . Dado que a y b son primos relativos, obtenemos que a es factor
de p0 . Por otro lado, si en (3.4) factorizamos b y reordenamos, obtenemos

(pn−1 an−1 + · · · + p1 abn−2 + p0 bn−1 )b = −pn an ,

es decir, b es factor de pn an , y nuevamente, como a y b son primos relativos, concluimos que b


es factor de pn

Dado un polinomio p ∈ K[x], supongamos que a ∈ K se una raı́z de p. Entonces tenemos

p = (x − a)q (1) ,

para algún q (1) ∈ K[x], con deg(q (1) ) = deg(p) − 1. Si a es también raı́z de q (1) , entonces
tendremos
p = (x − a)(x − a)q (2) = (x − a)2 q (2) ,

59
para algún q (2) ∈ K[x], con deg(q (2) ) = deg(p) − 2. Prosiguiendo, si a es raı́z de q (2) , tendremos

p = (x − a)2 (x − a)q (3) = (x − a)3 q (3) ,

con deg(q (3) ) = deg(p) − 3. Dado que el grado de los cocientes q (i) van disminuyendo en 1 cada
vez que a sea una raiz de estos cocientes, vemos que habrá un paso m tal que a es raı́z de q (m−1)
pero ya no será raı́z de q (m) , y entonces tendremos

p = (x − a)m q (m) ,

donde deg(q (m) ) = deg(p) − m y a no es raı́z de q (m) . En este caso, decimos que m es la
multiplicidad de a como raı́z de p.
Observación 30. Vemos de paso que un polinomio p ∈ K[x], de grado n, puede tener como
máximo n raı́ces contando multiplicidades.
El siguiente resultado, conocido como Teorema Fundamental del Álgebra, establece que todo
polinomio p ∈ C[x], de grado n ≥ 1, tiene exactamente n raı́ces en C, contando multiplicidades.
La primera prueba de este teorema se debe a Argand, y data de 1806. Posteriormente, Gauss
ofreció varias pruebas más, y actualmente se conocen más de una decena de pruebas de este
resultado, pero ninguna de ellas está al alcance de los conceptos desarrollados en estas notas,
pues todas ellas usan en mayor o menor medida conceptos de análisis y/o topologı́a.
Teorema 3.1.12 (Teorema Fundamental del Álgebra). Dado p ∈ C[x], de grado n ≥ 1, existen
c, z1 , z2 , . . . , zr ∈ C y k1 , k2 , . . . , kr ∈ N tales que

p = c(x − z1 )k1 (x − z2 )k2 · · · (x − zr )kr .

3.2 Funciones polinomiales


Iniciamos ahora es el estudio de funciones f : X → R, donde X ⊆ R, es un subconjunto de
los números reales, pudiendo ser todo R. Iniciaremos con el caso más simple, a saber, las
funciones polinomiales. En este caso, tenemos X = R, y decimos que una función f : R → R
es polinomial si tiene la forma

f (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ,

con ai ∈ R para todo i = 1, 2, . . . , n y x ∈ R. Es decir, “la forma” de la función es la de


un polinomio (con coeficientes reales). En este caso, el sı́mbolo x representa la variable, o
argumento, de la función f , y dado que el dominio de f es R tenemos x ∈ R.
Observación 31. El caso X ⊆ C nos conducirı́a al estudio de funciones con dominio complejo.
Eso es extremadamente importante, pero en este curso nos limitaremos a funciones con dominio
real, y dejaremos el caso complejo para cursos posteriores.

60
Observación 32. Notemos que en este caso f (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ∈ R,
aunque no sepamos a priori el valor de este número real, hasta que escojamos un valor para
x. Esto contrasta con el polinomio an xn + an−1 xn−1 + · · · + a1 x + a0 ∈ R[x], que si bien tiene
coeficientes en R, el polinomio no es un elemento de R. Sólo al substituir la indeterminada por
un valor a ∈ R, obtenemos el “valor numérico” del polinomio, que sı́ es un elemento de R.

A las funciones polinomiales se les varias de las terminologı́as que vimos para polinomios.
Por ejemplo, al término a0 se lo denomina el término independiente o constante, al término
de mayor potencia en x se lo denomina término lı́der o principal, y al valor del exponente
máximo se lo denomina el grado de la función polinomial. Algunos casos especiales merecen
atención: cuando sólo aparece el término constante, es decir f (x) = a0 , decimos que f es una
función constante. Sı́ el grado es 1, esto es, f (x) = a1 x+a0 , decimos que f es lineal. Cuando el
grado es 2, nos referimos a f como una función cuadrática, y cuando el grado es 3 la llamamos
una función cúbica. A partir de grado n = 4, y superiores, usualmente nos referimos a f como
función polinomial de grado n

3.2.1 Gráficas en el plano cartesiano


Dado que una función polinomial f : R → R, tiene R tanto como dominio como codominio,
su gráfico gr será un subconjunto del producto cartesiano R × R. Podemos representar esto
mediante dos ejes perpendiculares, que tradicionalmente se denominan eje x (en la horizontal)
y eje y (en la vertical), donde sobre el eje x se representan los posibles valores del argumento de
f y sobre el eje y las correspondientes imágenes. El conjunto de puntos de la forma (x, f (x)) ⊂
R × R determina el gráfico de la función polinomial. Para los valores de n = 0, 1, 2, 3 tendremos
los ilustrados en la Figura 3.1
Dada una función f : R → R, los valores de la variable x para los cuales f (x) = 0 se
denominan ceros o raı́ces de la función. Cuando la función es polinomial, es decir, de la forma

f (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ,

se le puede aplicar el Teorema del factor, válido para expresiones polinomiales, y concluir que
a ∈ R es cero de f si y sólo si la función lineal x − a es un factor de f , es decir, podemos escribir

f (x) = (x − a)g(x),

donde g será otra función polinomial de grado menor que f , concretamente deg(g) = deg(f )−1.
En caso de que a sea una raı́z de multiplicidad r para la función f , tedremos

f (x) = (x − a)r h(x),

siendo h una función polinomial de grado deg(h) = deg(f ) − r.


Vemos ası́ que los ceros de una función polinomial son exactamente las raı́ces de su expresión

61
Figure 3.1: Gráfica de algunas funciones polinomiales

polinomial, y por lo tanto las correpondientes expresiones lineales son factores de la función
original. Además, podemos concluir que una función f : R → R polinomial de grado n puede
anularse como máximo en n puntos diferentes.

3.3 Funciones Racionales e Irracionales


Las funciones racionales son funciones f : X → R, con X ⊆ R, que tienen la forma

g(x)
f (x) = ,
h(x)

donde g, h : R → R son funciones polinomiales. Para este tipo de funciones, el dominio X


puede ser más complicado que para las funciones polinomiales.
En efecto, debemos considerar los puntos en los cuales el polinomio denominador se anula.
Estos puntos no forman parte del dominio de una función racional. El comportamiento de una
función racional en las cercanı́as de una raı́z del denominador dependerá de algunas condiciones
especiales, que pasaremos a detallar ahora.
Si un punto x = a es sólo raı́z del denominador, y no del numerador, entonces a medida que
el argumento de f (x) se aproxima al valor a, el módulo |f (x)| crece indefinidamente.
Por otro lado, si x = a es raı́z común de g y de h, con multiplicidades m y n, respectivamente.
Entonces podemos escribir
(x − a)m g̃(x)
f (x) = .
(x − a)n h̃(x)

62
Figure 3.2: Gráfica del Ejemplo 3.3.1

Ası́, siempre que x ̸= a, y m < n, tendremos

g̃(x)
f (x) = ,
(x − a)n−m h̃(x)

y por lo tanto de nuevo tendremos que |f (x)| crece indefinidamente a medida que x se aproxima
al valor a.
Si m ≥ n, tendremos que f (x) se hace arbitrariamente pequeño a medida qeue x se aproxima
al valor a, pues siempre que x ̸= a, podremos escribir

g̃(x)
f (x) = (x − a)m−n .
h̃(x)

Ejemplo 3.3.1. Considere la función f : X → R dada por la expresión

x3 − 2x
f (x) = .
x2 − 1

Vemos que el denominador es x2 − 1 = (x − 1)(x + 1), y por lo tanto se anula en x = 1 y en


x = −1. El valor de f simplemente no está definida en estos puntos, y por lo tanto no forman
parte del dominio de f . Su dominio es X = R \{−1, 1}. El gráfico de esta función racional se
ilustra en la Figura 3.2. Allı́ vemos que la función se dispara ya sea hacia +∞ o hacia −∞ a
medida que el argumento se aproxima de los valores 1 y −1.

Ejemplo 3.3.2. Condidere la función racional f : X → R dada por

(x2 − 4x + 4)(x2 − 6x + 9)
f (x) = .
(x − 2)3 (x − 3)

En este caso, el denominador se anula en los puntos x = 2 y x = 3. Por su parte, el numerador

63
Figure 3.3: Gráfica de f (x) del Ejemplo 3.3.2

puede factorizarse en la forma

(x2 − 4x + 4)(x2 − 6x + 9) = (x − 2)2 (x − 3)2 .

Ası́, también se anula en los mismos puntos x = 2 y x = 3. Dadas las multiplicidades, vemos
que si x ∈
/ {2, 3} podemos expresar f como

x−3
f (x) = .
x−2

El dominnio de f es R \{2, 3}. En el gráfico vemos que cuando x se aproxima al valor 2, el


módulo |f (x)| crece indefinidamente. Por otro lado, si x se aproxima del valor 3, entonces f (x)
se aproxima del valor 0, pero nunca alcanza dicho valor. Esto se ilustra marcando un agujero
en la gráfica de f . Dicho agujero está en el valor que corresponde a (x − 3)/(x − 2) para x = 3,
pues esta función sı́ está definida en x = 3, y fuera de ese punto coincide con la función f (x).

3.3.1 Asintotas de funciones racionales


En los dos ejemplos anteriores, vemos que para los valores x = a que son sólo raı́ces del
polinomio denominador (o es una raı́z común con multiplicidad mayor en el denominador), la
función se dispara ya sea hacia +∞ o hacia −∞ a medida que su argumento se aproxima del
valor a. La recta vertical x = a se denomina una ası́ntota vertical de la función f . Vemos
que el grado del polinomio denominador establece la cantidad máxima de ası́ntotas verticales
que puede tener una función racional, pues dicho grado impone una cota a la cantidad de raı́ces
que puede tener el denominador.
x−3
En el caso de la función f (x) = x−2 , podemos observar lo siguiente. Para valores muy
grandes de |x|, tenemos que x − 3 y x − 2 son aproximadamente iguales a x (los valores
constantes 3 y 2 son insignificantes comparados con |x|, cuando x se aleja del origen ya sea

64
hacia +∞ o hacia −∞). Entonces, podemos observar que para valores muy grandes de |x|
tenemos la aproximación
x−3 x
f (x) = ≈ = 1.
x−2 x
Ası́, la gráfica de f se aproxima indefinidamente a la recta y = 1 cuando su argumento se aleja
del origen, en cualquiera de las direcciones. Decimos que esta recta y = 1 es una ası́ntota
horizontal de f .
Más generalmente, si tenemos una función polinomial f : X → R, de la forma

p(x) pm xm + pm−a xm−1 + · · · + p1 x + p0


f (x) = = ,
q(x) qn xn + qn−1 xn−1 + · · · + q1 x + q0

para valores muy grandes de |x|, tanto en el numerador como en el denominador, predominan
los términos lı́deres, y podemos considerar la aproximación

p(x) pn
f (x) = ≈ xm−n .
q(x) qn

Ası́, si m = n, tendremos que la recta horizontal y = pqnn es una ası́ntota horizontal de f .


Caso tengamos m < n, entonces f (x) ≈ 0 cuando |x| se hace muy grande, y la recta y = 0
será una ası́ntota horizontal de f .
El caso m > n merece una consideración especial. Primero supongamos que m = n + 1,
entonces, volviendo a la expresión original f (x) = p(x)/q(x), del algoritmo de la división
tenemos
p = (ax + b)q + r,

donde ax + b es el cociente de dividir p entre q y r es el resto, que satisface deg(r) < deg(q).
Ası́, obtenemos
p(x) r(x)
f (x) = = ax + b + .
q(x) q(x)
En esta expresión, vemos que cuando |x| se hace muy grande, el valor |r(x)/q(x)| se hace
arbitrariamente pequeño, pues deg(r) < deg(q). Por lo tanto, tenemos la expresión aproximada

f (x) ≈ ax + b,

donde la recta y = ax + b es una ası́ntota oblı́cua de f .


Si m > n + 1, entonces con el algoritmo de la división tendremos

p = gq + r,

donde deg(q) ≥ 2 y deg(r) < deg(q), y en la expresión

p(x) r(x)
f (x) = = g(x) + ,
q(x) q(x)

65
Figure 3.4: Gráfica del Ejemplo 3.3.3

tendremos que |r(x)/q(x)| se hace arbitrariamente pequeno cuando |x| se hace arbitrariamente
grande, y por lo tanto
f (x) ≈ g(x),

para valores muy frandes de |x|. Dado que deg(g) ≥ 2, esta función crece más rápido que
cualquier recta no vertical, y por lo tanto ninguna recta oblı́cua puede ser ası́ntota de f .
−32
Ejemplo 3.3.3. Consideremos la función racional f (x) = xx−2 . Del algoritmo de la división,
tenemos
x2 − 3 = (x + 2)(x − 2) + 1,

de donde
x2 − 3 1
f (x) = =x+2+ .
x−2 x−2
Entonces, la recta y = x + 2 es una ası́ntota oblı́cua. Además, tenemos una ası́ntota vertical
en x = 2, pues es raı́z del denominador, y no lo es del numerador. La gráfica de esta función
racional se ilustra en la Figura 3.4, donde hemos incluido la ası́ntota oblı́cua.

3.3.2 Funciones irracionales


En principio, las funciones irracionales serı́an todas las funciones que no sea racionales. Sin
embargo, veremos más adelante que existen funciones no racionales que tienen caracterı́sticas
especiales que nos obligan a considerarlas aparte de las funciones algebraicas. Por lo tanto,
al referirnos a funciones irracionales, entenderemos que son funciones algebraicas, pero que no
cumplen el criterio de ser cociente de polinomios. De forma más concreta, llamaremos fun-
ciones irracionales a funciones que involucran radicales de funciones polinomiales o cocientes
de radicales de funciones polinomiales.

66
Figure 3.5: Gráfica del Ejemplo 3.3.4

Figure 3.6: Gráfica del Ejemplo 3.3.5

Figure 3.7: Gráfica del Ejemplo 3.3.6


Ejemplo 3.3.4. Consideremos la función f : X → R definida mediante f (x) = x − 2. Vemos
que el radicando es una función polinomial, y por lo tanto f (x) es una función irracional. Para
este ejemplo, vemos que su dominio excluye a todos los valores tales que el radicando es negativo.
Ası́, tenemos X = [2, ∞).
x +3 2
Ejemplo 3.3.5. Consideremos la función f : X → R definida por f (x) = √ 3
x−2
. Esta función
es irracional, por el radical de la función polinomial en el denominador. En este caso, la raı́z
cúbica no genera problemas con el signo del radicando, sin embargo, el denominador se anula
para x = 2, y por lo tanto ese punto no forma parte del dominio de f . Tenemos X = R \{2}.
Puesto que el numerador no se anula en las cercanı́as de x = 2, podemos inferir que |f (x)|
crece indefinidamente a medida que x se aproxima de 2.
3
Ejemplo 3.3.6. Consideremos la función f (x) = 3 x−2 .
√ De nuevo en este caso, aparece en el

67
denominador un radical de la función polinomial g(x) = x, y por lo tanto f (x) es irracional.
Esta función está definida para todo valor de x tal que el denominador no se anule, es decir,

para todo x ̸= 3 2.

Observación 33. Para el caso de las funciones irracionales, no profundizaremos en el estudio


de sus caracterı́sticas, pues para ello requerirı́amos de las herramientas del cálculo. Es acon-
sejable en este punto que el estudiante utilice alguna calculadora gráfica para visualizar varias
funciones irracionales, y ası́ familiarizarse con el tipo de comportamiento que pueden tener
estas funciones.

En ocasiones puede ser interesante modificar la expresión de una función irracional expresada
como una fracción mediante la racionalización de su denominador. El procedimiento general es
multiplicar tanto el numerador como el denominador por una expresión tal que el denominador
se racionaliza, es decir, desaparecen las expresiones radicales. El factor por el cual se multi-
plican el numerador y el denominador se denomina racionalizante del denominador. Más
allá de esto, no hay métodos generales, es decir, la determinación del racionalizante dependerá
de cada caso analizado. Ilustraremos esto mediante algunos ejemplos.
x−5
Ejemplo 3.3.7. Consideremos la función f (x) = √x−1−2 . Vemos que en el denominador

podemos obtener una diferencia de cuadrados si lo multiplicamos por la expresión x − 1 +
2. Para no alterar la fracción, debemos multiplicar el numerador por la misma expresión, y
tendremos
√ √ √
x−5 x−5 x−1+2 (x − 5)( x − 1 + 2) (x − 5)( x − 1 + 2)
√ =√ √ = √ =
x−1−2 x−1−2 x−1+2 ( x − 1)2 − 4 (x − 5) (3.5)

= x−1+2
√ x−5
Hay que notar que la función g(x) = x − 1+2 y f (x) = √x−1−2 no son iguales. La primera
está definida para todo x ≥ 1, en tanto que la segunda no está definida en x = 5. El dominio
de f es [1, ∞) \ 5, en tanto que el dominio de g es [1, ∞). En el último simplificación de la
ecuación (3.5), la simplificación del factor x − 5 no está permitida si x = 5.

Ejemplo 3.3.8. Consideremos la función f (x) = √ x−1


√ . Puesto que el denominador
x+ 2x−1
completo es una raı́z cuadrada, podemos multiplicar y dividir la fracción por dicha raı́z cuadrada,
para obtener p √
x−1 (x − 1) x + 2x − 1
p √ = √ .
x + 2x − 1 x + 2x − 1

Ahora, podemos multiplicar numerador y denominador por la expresión x− 2x − 1, para tener
en el denominador una diferencia de cuadrados, como sigue
p √ √ p √ √
x−1 (x − 1) x + 2x − 1(x − 2x − 1) x + 2x − 1(x − 2x − 1)
p √ = =
x + 2x − 1 x2 − 2x + 1 x−1

68
CAPÍTULO 4

Funciones Elementales no Algebraicas

En este capı́tulo introduciremos algunas fuciones que son de gran relevancia en el estudio del
cálculo y en sus aplicaciones. Estas funciones se diferencian marcadamente de las funciones
algebraicas (polinomiales, racionales e irracionales) que hemos visto hasta ahora, y reciben
el nombre de funciones trascendentales. De forma más precisa, las funciones algebraicas
se caracterizan por ser soluciones de ecuaciones polinomiales cuyos coeficientes son a su vez
polinomios. Por su parte, las funciones trascendentales no cumplen dicho criterio. Entre
este tipo de funciones encontraremos las trigonométricas, los expoenenciales, logaritmos, y las
trigonométricas hiperbólicas. Describiremos las propiedades más básicas de estas funciones a fin
de obtener familiaridad con los mismos. En los cursos de cálculo se desarrollaran herramientas
más sofisticadas para estudiar estas funciones con más profundidad. Una buena referencia para
complementar este capı́tulo es el texto [10]

4.1 Funciones Trigonométricas


Para esta sección ya asumiremos que el lector conoce la trigonometrı́a del triángulo, las iden-
tidades trigonométricas básicas y los teoremas fundamentales del Seno y del Coseno. Además,
es probable que ya haya tenido ocasión de ver la trigonometrı́a del cı́rculo unitario, con
lo cual se definen las funciones trigonométricas de un ángulo arbitrario. Aquı́ tomaremos
esto la trigonometrı́a del circulo unitario como punto de partida, para estudiar las funciones
trigonométricas como funciones cuyo dominio es R, e introduciremos algunas propiedades
básicas de estas funciones.
Pra comenzar, consideremos el plano cartesiano con los ejes x e y estándares. Observamos
entonces que con cada número real t podemos asociar un ángulo en radianes, medido desde el
semieje x positivo, en sentido antihorario si t > 0 y en sentido horario si t < 0. Una vez fijado

69
este ángulo, consideramos una semirecta r que inicialmente coincide con el semieje positivo x y
lo giramos por el valor del ángulo t. Esta semirecta intersecta al cı́rculo de radio 1 en un punto
que denotaremos mediante P (t) = (x(t), y(t)). Definimos las funciones

sin : R → R cos : R → R

mediante sin(t) = y(t) y cos(t) = x(t), dadas por la construcción del punto P (t).
Directamente de la definición de estas funciones como las coordenadas del punto P (t) ob-
servamos que su imagen, también llamado recorrido o rango es el intervalo [−1, 1]. Ası́,
podemos escribir
sin : R → [−1, 1] cos : R → [−1, 1].

También vemos, analizando el triángulo rectángulo formado por el origen, el punto P (t) y
el punto x(t) que se tiene la relación fundamental

sin2 t + cos2 t = 1.

Observación 34. Del análisis del triángulo mencionado, deberı́amos escribir (sin t)2 +(cos t)2 =
1, pero es una costumbre ampliamente aceptada usar la notación (f (t))2 = f 2 (t), para cualquier
función f .

También de la construcción del punto P (t) vemos que sin(t) = 0 precisamente cuando P (t)
está sobre el eje x, lo cual ocurre cuendo t = nπ, con n ∈ Z, y cos(t) = 0 precisamente cuando
P (t) está sobre el eje y, lo cual ocurre cuando t = (2n + 1)π/2 con n ∈ Z.
Tambien, analizando los signos de las coordenades de P (t) podemos deducir el signo de las
funciones sin y cos para valores de t en los diferentes cuadrantes.
Vemos también que P (t) = P (t + 2nπ), cualquiera sea n ∈ Z. Sigue de eso que, para todo
n∈Z

sin(t + 2nπ) = sin t,


(4.1)
cos(t + 2nπ) = cos t.

Dada una función f : R → R, decimos que es periódica si existe un número positivo T > 0
tal que f (t + T ) = f (t), para todo t ∈ R. El menor T tal que se cumple esta propiedad se
denomina el periodo de f .
De la observación previa, vemos que las funciones sin : R → [−1, 1] y cos : R → [−1, 1] son
ambas periódicas con periodo 2π.
También podemos observar la siguiente propiedad: dado t y −t, vemos que P (t) y P (−t)
son simétricos respecto del eje x. Por lo tanto, concluimos que

sin(−t) = − sin t,
(4.2)
cos(−t) = cos t.

70
Figure 4.1: Gráfica de la función seno.

Figure 4.2: Gráfica de la función coseno.

Figure 4.3: Gráficas del seno y coseno superpuestos.

Cuando una función f : R → R cumple f (−t) = f (t), decimos que es par, y cuando cumple
f (−t) = −f (t) decimos que es impar. Lo que hemos observado es que sin : R → [−1, 1] es
impar, en tanto que cos : R → [−1, 1] es par.
Con estas propiedades podemos esbozar el gráfico de las funciones sin : R → [−1, 1] y de
cos[−1, 1]. Si queremos realizar un bosquejo a mano, deberı́amos obtener P (t) = (cos t, sin t)
para varios valores de t en el intervalo [0, 2π], para poder tener suficientes puntos del gráfico.
En la Figura 4.1 se ilustra el gráfico de la función seno, y se indican sus raı́ces y sus extremos
a lo largo de un periodo. En la Figura 4.2 tenemos lo mismo para la función coseno, y en la
Figura 4.3 tenemos las gráficas superpuestas de las dos funciones. En todas estas figuras, en el
eje x se indica el argumento en radianes.

71
De estos gráficos es aparente la relación de desplazamiento que existe entre estas dos fun-
ciones, concretamente, tenemos las relaciones

sin t = cos(t − π/2),


(4.3)
− cos t = sin(t − π/2).

Estas relaciones también pueden inferirse de la construcción del punto P (t) = (cos t, sin t),
pues, si al argumento t le restamos π/2, equivale a mover el punto P sobre el cı́rculo unitario un
arco de π/2 radianes en sentido horario, y por lo tanto el segmento OP (t) debe ser perpendicular
al segmento OP (t−π/2). Esto transforma las coordenadas de P (t) = (cos t, sin t) a P (t−π/2) =
(cos(t − π/2), sin(t − π/2)) = (sin t, − cos t)

Ejercicio 4.1.1. Muestre que se tienen las relaciones

sin(t + π/2) = cos t,


cos(t + π/2) = − sin t,
(4.4)
sin(t + π) = − sin t,
cos(t + π) = − cos t.

A partir de las funciones sin : R → R y cos : R → R podemos definir las otras 4 funciones
trigonométricas usuales, a saber

sin t
tan : X → R; tan t := , t∈
/ {(2n + 1)π/2; n ∈ Z},
cos t
1
sec : X → R; sec t := , t∈/ {(2n + 1)π/2; n ∈ Z},
cos t (4.5)
1
csc : X → R; csc t = ; t∈/ {nπ; n ∈ Z},
sin t
cos t
cot : X → R : cot t = ; t∈
/ {nπ; n ∈ Z}.
sin t
Las propiedades fundamentales de todas estas funciones pueden obtenerse a partir de las
propiedades de las funciones seno y coseno. Por ejemplo, dado que para valores de t cercanos
a las raı́ces de cos t la función seno no se anula, vemos que la función tangente tiene ası́ntotas
verticales en dichos puntos. En la Figura 4.4 vemos el gráfico de la función tangente, con las
ası́ntotas verticales en ±π/2.
De las relaciones sin(t + π) = − sin t y cos(t + π) = − cos t obervamos que

sin(t + π) − sin t sin t


tan(t + π) = = = = tan t,
cos(t + π) − cos t cos t

por tanto, la función tangente es periódica con periodo p ≤ π. Por otro lado, vemos que
tan(0) = 0, y dado que el seno no se anula para valores 0 < t < π, concluimos que p no puede
ser menor que π. Entonces debemos tener que el periodo de la función tangente es p = π.

72
Figure 4.4: Gráficas de la función tangente.

Ejercicio 4.1.2. Determine el rango y el periodo para las demás funciones listadas en la
Ecuación 4.5.

4.1.1 Funciones trigonométricas inversas


Recordemos que dada una función f : A → B, la misma es invertible si y sólo si es biyectiva. En
tal caso, su inversa es otra función f −1 : B → A, que satisface f −1 (f (x)) = x para toco x ∈ A
y f (f −1 (x)) = x para todo x ∈ B. De los gráficos de las funciones trigonométricas podemos
observar que ninguna de ellas es biyectiva. En tal caso, lo que podemos hacer es restringir la
función a una parte apropiada de su dominio, tal que en dicha restricción sea inyectiva. Note
que esto puede significar que no podamos cubrir toda la imagen. En general, si X ⊆ A es un
suconjunto de A tal que f : A → B es inyectiva sobre el subconjunto X, entonces la función

f : X → f (X)

será inyectiva, y podremos determinar su inversa f −1 : f (X) → X.


Esto es lo que haremos con las funciones trigonométricas para definir las funciones trigonométricas
inversas.
Comencemos con la función sin : R → R. Observamos que la misma es inyectiva sobre el
intervalo X = [−π/2, π/2], y tenemos sin(X) = [−1, 1]. Por tanto, definimos su inversa, a la
que llamaremos la función arco seno, como

arcsin : [−1, 1] → [−π/2, π/2],

la cual queda definida por la propiedad

y = arcsin(x) ⇔ x = sin y.

En la Figura 4.5 vemos la gráfica de esta función.


Del mismo modo, observamos que la función coseno es inyectiva sobre el intervalo X = [0, π],

73
Figure 4.5: Gráfica de la función arco seno.

Figure 4.6: Gráfica de la función arco coseno.

y cos(X) = [−1, 1], entonces sobre este intervalo podemos definir la función inversa del coseno,
al cual llamaremos arco coseno, como

arccos : [−1, 1] → [0, π],

y queda definida por la relación

y = arccos x ⇔ x = cos y.

En la Figura 4.6 podemos observar la gráfica de esta función.


La función tangente es inyectiva sobre el intervalo (−π/2, π/2), y su recorrido sobre dicho

74
Figure 4.7: Gráfica de la función arco tangente.

intervalo es toda la recta. Ası́, podemos definir la función arco tangente, como

arctan : R → (−π/2, π/2),

la cual queda definida por la relación

y = arctan x ⇔ x = tan y.

En la Figura 4.7, vemos la gráfica de esta función, junto con sus ası́ntotas horizontales y = ±π/2.

Observación 35. Las funciones arco seno, arco coseno y arco tangente aparecen con mucha
más frecuencia en las aplicaciones que las funciones arco secante, arco cosecante y arco cotan-
gente, las cuales serı́an definidas sobre intervalos donde las funciones secante, cosecante y
cotangente son inyectivas. Generalmente las calculadores cientı́ficas tienen teclas especı́ficas
para el cálculo de las funciones arco seno, arco coseno y arco tangente, pero no para las demás
funciones trigonométricas inversas. De cualquier manera, si se hace necesario calcular dichas
funciones inversas, pueden usarse identidades trigonométricas apropiadas. Por ejemplo, la
función arco secante quedarı́a definida por la relación

y = arcsec x ⇔ x = sec y.

Pero entonces, podemos usar que sec y = 1/ cos y, para obtener

y = arcsec x ⇐ x = 1/ cos y ⇔ cos y = 1/x ⇔ y = arccos(1/x).

Ası́, podemos concluir que arcsec x = arccos(1/x) calcular el arco secante usando la función
arco coseno.

Ejercicio 4.1.3. Determine el dominio y el recorrido de la función arco secante. Obtenga


las definiciones para las funciones arco cosecante y arco cotangente y obtenga una forma
de calcularlas usando las demás funciones trigonométricas inversas. Determine también el
dominio y el recorrido de cada una de estas funciones.

75
4.2 Funciones exponenciales y logarı́tmicas
En esta sección retomaremos los conceptos de exponencial y logaritmo, pero daremos énfasis
al punto de vista de funciones. La definición rigurosa de estas funciones requiere de las her-
ramientas del cálculo que aún no tenemos disponible. Sin embargo, una vez definida una de
ellas, la otra se puede definir como su inversa, y es conveniente comenzar a familiarizarse con
estas funciones, y entender su interrelación y propiedades básicas aunque sea apoyándonos en
ideas intuitivas, en espera de tener las herramientas de cálculo apropiadas para un desarrollo
más formal y riguroso.
Iniciaremos con las funciones exponenciales, tomando como punto de partida que entende-
mos intuitivamente lo que significa elevar un número a una determinada potencia. Entonces,
dado un número real positivo a, definimos la función exponencial de base a

expa : R → R; expa (x) = ax .

Observamos que, sin importar la base a, tendremos expa (0) = a0 = 1. Vemos también que
si a = 1, entonces exp1 (x) = ax = 1, y tenemos simplemente la función constante igual a 1.
Por otro lado, si a > 1, entonces dados x1 < x2 tendremos

expa (x1 ) = ax1 < ax2 = expa (x2 ).

Finalmente, si 0 < a < 1, entonces x1 < x2 implica

expa (x1 ) = ax1 > ax2 > expa (x2 ).

Ası́, la función expa : R → R es creciente si a > 1 y decreciente si 0 < a < 1.


Tomando de nuevo a > 1, vemos que expa (x) = ax crece indefinidamente cuando x es
positivo y crece indefinidamente. Por otro lado, si x es negativo y |x| crece indefinidamente,
vemos que
1
expa (x) = ax = |x| ,
a
se aproxima a cero indefinidamente. Si 0 < a < 1, el comportamiento se invierte, es decir,
expa (x) crece indefinidamente si x es negativo y |x| crece indefinidamente, y expa (x) se aproxima
a cero cuando x es positivo y crece indefinidamente. En cualquier caso, esto significa que si
a ̸= 1 el recorrido de la función exponencial expa es R+ , que denota a los reales positivos. Ası́,
podemos pensar en la función exponencial de base a ̸= 1 como

expa : R → R+

Del hecho que esta función sea creciente (a > 1) o decreciente (0 < a < 1) se concluye que esta
función es inyectiva.
Estas propiedades se ilustran con los gráficos de expa : R → R tanto para 0 < a < 1 como

76
Figure 4.8: Gráficas de exp2 (x) y de exp1/2 (x)

Figure 4.9: Gráfica de exp : R → R+

para a > 1, en la Figura 4.8, concretamente exp2 (x) (azúl) y exp1/2 (x) (rojo).
De entre todas las bases que podemos elegir para la función exponencial expa , la más
importante es la que corresponde al número e. En ese caso, simplemente se omite indicar la
base, y usamos la notación
exp : R → R+ ; exp(x) = ex .

En la Figura 4.9 podemos observar la gráfica de esta función. La función exp(x) = ex es tan
importante, que por lo general cuando se usa la expresión función exponencial, por defecto se
asume que se refiere a esta función, y no a cualquier otra función exponencial con alguna base
a ̸= e.
Consideremos ahora las funciones logarı́tmicas. Para ello, recordemos primeramente lo que
significa el logaritmo de un número. En la Ecuación (2.3) hemos definido el logaritmo en base
a de un número b mediante la relación

loga (b) = r ⇔ ar = b,

válida para cualquier real r y a > 0. Allı́ hemos observado también que dada estas condiciones,
el número b será siempre positivo.
Podemos observar entonces que, dada una base a positiva diferente de 1, podemos pensar
en el logaritmode base a como una función

loga : R+ → R

que es la inversa de la función expa : R → R+ .

77
Figure 4.10: Gráficas de log2 (x) y de log1/2 (x)

Figure 4.11: Gráfica de ln : R+ → R

Dado que para cada valor fijado de a obtendremos funciones diferentes, a saber loga y logb ,
hablamos de funciones logarı́tmicas. Cada una de ellas es la inversa de la correspondiente
función exponencial expa : R → R+ .
Siendo loga : R+ → R la inversa de expa : R → R+ podemos deducir fácilmente sus
propiedades más elementales. Por ejemplo, cualquiera sea la base a ̸= 1, la función loga : R+ →
R es una biyección, y loga (0) = 1. Por otro lado, la función loga : R+ → R es creciente si a > 1
y decreciente si 0 < a < 1. Las gráficas de estas funciones para a = 2 (rojo) y a = 1/2 (verde)
se ilustran en la Figura 4.10.
El caso a = e nuevamente adquiere relevancia, y se acostumbra usar la notación

loge = ln : R+ → R .

Esta función es conocida como el logaritmo natural, o simplemente logaritmo. Su gráfica


puede observarse en la Figura 4.11.
Las funciones exponenciales satisfecen todas las propiedades listadas en la Proposición 2.2.2.
En particular, nos interesa la primera de ellas, es decir

expa (x + y) = ax+y = ax ay = expa (x) expa (y).

En la siguiente sección usaremos esta propiedad junto con la identidad de Euler para dar sentido
a la función exponencial de argumento complejo.

78
4.3 Exponencial compleja y Trigonométricas hiperbólicas
Podemos usar las funciones exp = expe y las funciones cos y sin, definidas para variable real,
para definir la función exponencial de variable compleja.
Concretamente, dado z = x + iy ∈ C, definimos la función

exp : C → C,

mediante
exp(z) = exp(x + iy) := exp(x)[cos y + i sin y],

donde, del lado derecho las funciones exp, cos y sin son las funciones de variable real que hemos
considerado antes.
En la Observación 26 mencionamos la identidad eiφ = cos φ + i sin φ. En esa ocación
usamos eiφ apenas como un sı́mbolo para denotar el número complejo cos φ + i sin φ. Con la
definición de exponencial complejo que hemos introducido ahora, tenemos de hecho que, para
z = iφ = 0 + iφ:

eiφ := cos φ + i sin φ = exp(0)[cos φ + i sin φ] = exp(iφ) = exp(z).

Ası́, lo que en su momento interpretamos apenas como una notación, puede interpretarse ahora
de hecho como el número complejo que se obtiene como imagen de iφ bajo la función exp C → C.
Observemos que la función exp : C → C tiene la importante propiedad de periodicidad. De
hecho, vemos que, si z = x + iy, entonces:

exp(z + i2π) = exp(x + i(y + 2π)) = exp(x)[cos(y + 2π) + i sin(y + 2π)]


(4.6)
= exp(x)[cos y + i sin y] = exp(z).

Por otro lado, si α ∈ R es tal que

exp(z + iα) = exp(z),

afirmamos que α = 2nπ, con n ∈ Z. En efecto,

exp(x + i(y + α)) = exp(x)[cos(y + α) + i sin(y + α)]

y
exp(z) = exp(x + iy) = exp(x)[cos y + i sin y],

implican
cos(y + α) + i sin(y + α) = cos y + i sin y.

Donde, igualando partes reales entre sı́ y partes imaginarias entre sı́, concluimos que α = 2nπ,

79
con n ∈ Z.
Note que esta propiedad contraste con el caso de la exponencial real, la cual no tiene
periodicidad, sino que es monótona creciente o monótona decreciente.

Observación 36. Conviene observar que la definición totalmente rigurosa de estas funciones
requiere de herramientas de cálculo. Más adelante, en cursos de cálculo el estudiante podrá
ver que una forma de definir estas funciones es mediante el uso de series y el concepto de
convergencia.

Observemos que, si φ ∈ R, entonces

exp(iφ) = cos φ + i sin φ


(4.7)
exp(−iφ) = cos φ − i sin φ.

Sumando estas ecuaciones, obtenemos

exp(iφ) + exp(φ) eiφ + e−iφ


cos φ = = ,
2 2
en tanto que sustrayéndolas, obtenemos

exp(iφ) − exp(φ) eiφ − e−iφ


sin φ = = .
2i 2i
Estas expresiones motivan para definir las funciones sin y cos con variable compleja, medi-
ante

eiz + e−iz
sin : C → C; sin(z) :=
2i (4.8)
eiz + e−iz
cos : C → C; cos(z) := .
2
A su vez, a patir de las funciones sin y cos, de variable compleja, podemos definir la función
tan : X ⊂ C → C mediante
sin z
tan z = ,
cos z
para cualquier valor z tal que cos z ̸= 0.
Las funciones secante, cosecante y cotangente pueden definirse para variables complejas
mediante las relaciones dadas en la Ecuación (4.5).

Ejercicio 4.3.1. Muestre que las funciones trigonométricas complejas satisfacen las siguientes
propiedades

a) sin2 z + cos2 z = 1

b) sin(−z) = − sin z

c) cos(−z) = cos z

80
Figure 4.12: Gráfica de sinh : R → R

Figure 4.13: Gráfica de cosh : R → R

d) Las funciones sin : C → C y cos : C → C tienen periodo i2π.

e) Determine el periodo de la función tangente de variable compleja.

Finalmente, mediante las funciones trigonométricas complejas podemos definir las funciones
trigonométricas hiperbólicas. Concretamente, definimos el seno hiperbólico sinh : R → R
mediante la expresión
ex − e−x
sinh x := −i sin(ix) =
2
y el coseno hiperbólico cosh : R → R mediante la expresión

e−x + ex ex + e−x
cosh x := cos(ix) = = .
2 2
Las gráficas de estas funciones se pueden observar, respectivamente, en las Figuras 4.12 y
4.13
Observamos que sinh x crece indefinidamente cuando x > 0 crece indefinidamente (ex crece
y e−x = 1/ex decrece). Por otro lado, sinh x decrece indefinidamente cuando x < 0 y |x| crece
indefinidamente. Ası́, el rango de sinh es R. Por su parte, vemos que cosh x es siempre mayor
o igual que 1, y crece indefinidamente cuando |x| se crece indefinidamente. Ası́, su rango es el
intervalo [1, ∞).

81
Figure 4.14: Gráfica de tanh : R → R

Figure 4.15: Interpretación geométrica de las funciones hiperbólicas

La función tangente hiperbólico tanh : R → R se define mediante

sinh x
tanh x := .
cosh x
Notemos que la función cosh nunca se anula, pues en su definición vemos que su numerador
nunca se anula (suma de dos reales positivos). Por eso, la función tangente hiperbólica queda
definida sobre todo R. Su gráfica puede observarse en la Figura 4.14, donde hemos indicado
también sus dos ası́ntotas horizontales, en y = ±1. La determinación rigurosa de estas ası́ntotas
requiere el concepto de lı́mite de funciones, que sera desarrollada en los cursos de cálculo.

Ejercicio 4.3.2. Muestre las siguientes propiedades

a) cosh 2 − sinh2 = 1

b) sinh(−x) = − sinh(x)

c) cosh(−x) = cosh(x)

d) sinh(x + y) = sinh x cosh y + sinh y cosh x.

e) cosh(x + y) = cosh x cosh y + sinh x sinh y.

Las funciones secante hiperbólico, cosecante hiperbólico y cotangente hiperbólico


se definen mediante las mismas relaciones indicadas en la Ecuación (4.5).

82
Ejercicio 4.3.3. Determine el dominio y rango de las funciones secante hipebólico, cosecante
hiperbólico y cotangente hiperbólico.

Observación 37. Las funciones hiperbólicas tienen la siguiente interpretación geométrica.


Consideremos la hipérbola unitaria x2 − y 2 = 1. Cualquier semirecta trazada por el ori-
gen, con pendiente entre −1 y 1 (ángulo con el eje x positivo entre −π/4 radianes y π/4
radianes), intersectará la rama de la hipérbola en que está en el semiplano x > 0 en un punto
P = (cosh α, sinh α), siendo α el área del triángulo curvilı́neo cuyos vértices son el origen de
coordenadas O, el punto (1, 0) (intersección de la hipérbola con el eje x positivo) y el punto P
(ver Figura 4.15). Para justificar esta propiedad se necesitan herramientas de cálculo, como
lı́mites e integrales.

83
CAPÍTULO 5

Combinatoria Básica

En este capı́tulo estudiaremos formas indirectas de contar elementos de conjuntos finitos. Ver-
emos que incluso con conjuntos con relativamente pocos elementos, pueden surgir situaciones
de conteo de configuraciones de sus elementos que serı́an imposible de contar de forma directa.
La combinatoria busca determinar estas cantidades mediante un razonamiento que aprovecha
ciertos patrones. Considere por ejemplo la siguiente situación: diez personas deben sentarse es
un salón ocupando cada una una silla enumerada, y cada dı́a desean hacerlo en una configuración
diferente (esto es, que no ocurra que las mismas personas ocupen las mismas sillas). Esto nos
plantea al menos dos preguntas. La primera es si eventualmente nos veremos obligados a repetir
una configuración que ya ha sido utilizada, y la segunda es, cuántas configuraciones tenemos
disponible.
Es relativamente evidente que la respuesta a la primera es que sı́, más tarde o más tem-
prano tendremos que repetir configuraciones, porque las diferentes configuraciones que puedan
formarse conforman un conjunto finito, y si tenemos tiempo disponible, las habremos ocupado
todas y tendremos que repetir. La segunda es una pregunta más complicada, pero de hecho,
la respuesta es 3628800. Esto ilustra que un intento de enumerar todas las configuraciones
posibles, para realizar un conteo directo podrı́a ser impracticable. La respuesta a la segunda
pregunta también arroja una nueva luz sobre la primera. Pues, si bien es finita la cantidad
de configuraciones, lo cual nos llevó a concluir que más tarde o más temprano tendremos que
repetir configuraciones, la cantidad total disponible es tan grande que si usáramos una configu-
ración por dı́a, no tendrı́amos que repetir ninguna en más de 9000 años. Esto indica que en
la práctica, si estamos tratando realmente con 10 personas que deben sentarse en configura-
ciones diferentes, no serı́a fı́sicamente obligatorio repetir configuraciones. Para complementar
con ejercicios el material teórico de esta sección, el lector puede consultar las referencias [7, 3]

84
5.1 Principios fundamentales de conteo
Varios de los resultados que estudiaremos en este capı́tulo se referirán a la cantidad de elementos
de conjuntos finitos. Recordemos que un conjunto X es finito si es vacı́o o si podemos listar
(aunque sea en principio) todos sus elementos. Para poder enunciar con más precisión los
resultados, reformularemos ahora la noción de conjunto finito haciendo uso de la noción de
función biyectiva y del conjunto numérico N.
Dado un número natural, n ∈ N, pongamos

Jn = {1, 2, . . . , n}.

Dado un conjunto X, diremos que es finito si es vacı́o o si existe un n ∈ N y una biyección

f : X → Jn .

Cuando dicha biyección existe, diremos que es una enumeración de los elementos de X, y al
número n lo llamaremos la cardinalidad de X, y lo denotaremos mediante |X|. Cuando X = ∅,
estableceremos que su cardinalidad es 0. En la mayorı́a de los casos estaremos interesados en
conjuntos finitos no vacı́os.
Ahora estamos en condiciones de enunciar de forma precisa varios principios de conteo.
Quizás el más básico de todos es el llamado Principio del palomar, también conocido como
Pricipio de Dirichlet, que establece lo siguiente.

Teorema 5.1.1 (Principio del Palomar). Si X e Y son conjuntos finitos y |X| > |Y |, no
puede existir una función inyectiva f : X → Y .

Aceptaremos este resultado sobre la base de la intuición. Pues, si enumeramos los elementos
de X e Y podrı́amos escribir X = {x1 , x2 , . . . , xm } e Y = {y1 , y2 , . . . , yn }. Dado que m > n,
cualquier función de X a Y tendrá que asignar más de un elemento de X al mismo elemento
de Y , con lo cual deja de ser inyectiva. Esta interpretación intuitiva le vale el nombre del
Principio del Palomar, pues se puede pensar que los xi son palomas, y los yi son casillas de
un palomar. La función f : X → Y serı́a colocar una paloma en una casilla, y dado que hay
más palomas que casillas, necesariamente tendremos que colocar más de una paloma en alguna
de las casillas disponibles.
El siguiente principio de conteo establece la cardinalidad de una unión disjunta de conjuntos
finitos, y suele denominarse principio de la suma.

Teorema 5.1.2 (Principio de la suma). Si X1 , X2 , . . . , Xr son conjuntos finitos dos a dos


disjuntos (Xi ∩ Xj = ∅ siempre que i ̸= j), entonces se tiene

|X1 ∪ X2 ∪ · · · ∪ Xr | = |X1 | + |X2 | + · · · + |Xr |.

El principio de la suma suele usarse en conjunto con otro principio, conocido como el

85
principio de multiplicación, el cual establece la cardinalidad de un producto cartesiano
de conjuntos finitos no vacı́os.

Teorema 5.1.3 (Principio de multiplicación). Si X1 , X2 . . . , Xr son conjuntos finitos no


vacı́os, entonces se cumple que

|X1 × X2 × · · · × Xr | = |X1 | · |X2 | · · · |Xr |.

Esto es, la cardinalidad del producto cartesiano de conjuntos finitos (no vacı́os) es el pro-
ducto de las cardinalidades de los conjuntos factores. Este resultado puede probarse usando el
principio de inducción, pero no lo haremos aquı́.
En ocasiones este principio se enuncia en términos de las formas en que pueden ocurrir
sucesos independientes, de la siguiente manera: Si r sucesos etiquetados si pueden ocurrir
cada una de ni formas diferentes, entonces la forma total en que pueden ocurrir los r sucesos
(asumiendo que son independientes) es

n1 · n2 · · · nr .

El problema con este enunciado es que introduce mucha terminologı́a que no esta bien definida
(que tipos de sucesos? Qué significa independientes?). El principio matemático del conteo que
nos interesa es el enunciado en el Teorema 5.1.3, y lo que podemos hacer ahora es interpretar
los problemas en términos de conjuntos para poder aplicarles el resultado del Teorema. Veamos
con un ejemplo.

Ejemplo 5.1.4. Supongamos que queremos ir de una ciudad A a otra D, pasando por dos
ciudades intermediaras, digamos B y C. Si existen 3 caminos de A hastsa B, 4 caminos de
B hasta C, y 5 caminos de C hasta D, Cuantos caminos diferentes tenemos para escoger en
nuestro paseo de A hasta D. Aquı́, lo que tenemos son 3 conjuntos, a saber

CAB = {caminos de A hasta B},

CBC = {caminos de B hasta C},

CCD = {caminos de C hasta D},

Tenemos además |CAB | = 3, |CBC | = 4 y |CCD | = 5. Para ir desde A hasta D pasando por B
y D debemos elegir sucesivamente un elemento de CAB , luego otro de CBC y otro de CCD , lo
que nos da un elemento
(c1 , c2 , c3 ) ∈ CAB × CBC × CCD .

La cantidad total de caminos para elegir en un paseo de A hasta D es la cardinalidad del


producto cartesiano CAB × CBC × CCD , y nuestro primer principio de conteo nos afirma que
esto es
3 · 4 · 5 = 60.

86
Observación 38. En el ejemplo precedente, los “sucesos” corresponderı́an al hecho de moverse
de una ciudad a otra, en la secuencia A → B → C → D. Ası́, el primer suceso serı́a ir de A a
B, lo cual puede ocurrir de 3 formas diferntes. El segundo suceso serı́a ir de B hasta C, lo cual
puede ocurrir de 4 formas diferentes, y el tercer suceso serı́a ir de C hasta D, lo cual puede
ocurrir de 5 formas diferentes. La “independencia” de los sucesos se refiere a que la ocurrencia
de uno de los sucesos (en cualquiera de sus formas) no afecta las formas en que pueden ocurrir
los demás sucesos.
Veamos un ejemplo en que se usan los principios de la suma y de la multiplicación juntos.
Ejemplo 5.1.5. Supongamos que para un paseo desde una ciudad A hasta una ciudad D,
tenemos la opción de pasar o bien por una ciudad intermediaria B o bien por otra ciudad
intermediara C. Si hay 3 caminos para ir de A hasta B y 2 para ir de B hasta D, mientras
que hay 4 caminos para ir de A hasta C y 3 caminos para ir de C hasta D, de cuantas formas
posibles podrı́amos realizar el paseo?
En este caso, tenemos dos alternativas disjuntas, a saber: pasar por B o pasar por D.
Entonces la cardinalidad de la unión de estas alternativas deberán ser sumadas, de acuerdo
con el principio de la suma. Por su parte, para cada alternativa intermediaria A → B → D o
A → C → D, tenemos que aplicar el principio de multiplicación, para determinar la cantidad
total de caminos disponibles en cada secuencia. Para la secuencia A → B → D tenemos
3 · 2 = 6 opciones y para la secuencia A → C → D tenemos 4 · 3 = 12 opciones. El total se
obtiene de sumar estas cantidades, es decir 6 + 12 = 18 opciones.
El siguiente principio de conteo, conocido como Principio de inclusión-exclusión es-
tablece la cardinalidad de una unión de conjuntos finitos cuando no necesariamente son disjun-
tos. Lo veremos sólo para el caso de 2 conjuntos, debido a que el caso general involucra una
fórmula mucho más complicada.
Teorema 5.1.6 (Principio de inclusión-exclusión). Consideremos dos conjuntos finitos no
vacı́os X1 y X2 . Entonces tenemos

|X1 ∪ X2 | = |X1 | + |X2 | − |X1 ∩ X2 |.

Para 2 conjuntos es relativamente fácil argumentar el resultado enunciado, pues, lo que


estamos haciendo al sumar las cardinalidades de ambos conjuntos es contar por separado sus
elementos, pero dado que algunos elementos pueden estar en ambos conjuntos, estos se estarı́an
contando doble, y por lo tanto debemos descontarlos nuevamente, lo cual se logra restando la
cardinalidad de la intersección. Por este argumento el principio recibe el nombre de inclusión-
exclusión. Para más de dos conjuntos debemos considerar además de las intersecciones de a
2 aquellas intersecciones de a 3, y de a 4, etc, si se da el caso. Eso hace que la fórmula quede
mucho más complicada, aunque el principio básico es el mismo: identificar cuáles elementos se
están contando (incluyendo) por duplicado, triplicado, etc, y realizar las restas (exclusiones)
pertinentes.

87
5.2 Arreglos
Consideremos un conjunto X tal que |X| = n. Un arreglo es cualquier agrupamiento realizado
sobre los elementos de X. Por ejemplo, consideremos el conjunto

X = {a, b, 2, 5, ∗}.

Entonces tenemos que ab, ba5, y b25∗ son todos arreglos formados a partir de los elementos de
X. La cantidad de elementos considerados en cada arreglo es el tamaño del arreglo. Veremos
que en muchas situaciones nos interesará fijar un tamaño para los arreglos. En los ejemplos
ilustrados previamente, todos los arreglos son de tamaño distinto, y como tal son arreglos
diferentes. Por otro lado, si consideramos el arreglo ba, vemos que tiene el mismo tamaño que
ab y está formada usando los mismos elementos, pero el ordenamiento es diferente. Veremos
que hay situaciones en que querremos distinguir entre los dos. Ası́, fijado un tamaño para los
arreglos, tenemos dos alternativas interesantes, a saber: considerar o no el ordenamiento de los
elementos.

5.2.1 Permutaciones - Variaciones - Combinaciones


Comencemos con el caso más simple. Sea X tal que |X| = n, y fijemos el tamaño de los arreglos
como n. En este caso, la única forma de distinguir entre dos arreglos es por el ordenamiento
de los elementos que los conforman, y podemos pensar entonces en que un arreglo de tamaño
n = |X| es simplemente un reordenamiento de los elementos de X. Nos preguntamos ahora
cuántos arreglos diferentes de este tipo podemos tener sobre el conjunto X.
Podemos analizar este problema de la siguiente forma: para formar un arreglo, debemos
colocar en una fila ordenada los elementos de X. Para la primera posición podemos elegir
uno cualquiera de los n elementos de X, y por cada elección hecha para esa primera posición,
tendremos n − 1 elementos para elegir para la segunda posición, una vez hecho esto, tendremos
n − 2 opciones para elegir para la tercera posición. Prosiguiendo de esta forma, concluimos que
tendremos
n · (n − 1) · (n − 2) · · · 3 · 2 · 1

arreglos diferentes de tamaño |X| sobre el conjunto X. Este tipo de arreglo es tan importante
que recibe el nombre especial de permutación, y si n = |X| al número de permutaciones sobre
el conjunto X se lo denota mediante

Pn = n · (n − 1) · · · 3 · 2 · 1.

Dado un entero no negativo n, se define su factorial como

0! := 1; n! := n(n − 1) · · · 3 · 2 · 1, si n ≥ 1.

88
Ası́, dado un conjunto X con |X| = n, la cantidad de permutaciones sobre X es

Pn = n!.

El siguiente caso interesante es cuando, dado un conjunto X con |X| = n, fijamos un tamaño
0 < m < n para los arreglos y discriminamos por su ordenamiento. Un análisis similar al caso
en que m = n nos conduce a que la cantidad total de arreglos de tamaño m sobre X es

n · (n − 1) · (n − 2) · (n − (m − 1)),

Este tipo de arreglos también es lo suficientemente importante para recibir un nombre, y se lo


denomina variación de n en m, y se lo denota mediante

nV m = Vmn .

Observemos que dado un conjunto X con |X| = n, las permutaciones sobre X son un caso
particular de las variaciones de tamaño m sobre X, en el cual tenemos m = n = |X|.
Además, observemos la siguiente igualdad

n · (n − 1) · (n − 2) · · · 3 · 2 · 1 n!
n · (n − 1) · (n − 2) · · · (n − (m − 1)) = = .
(n − m) · (n − m − 1) · · · 3 · 2 · 1 (n − m)!

Ası́, dado un conjunto X podemos ver que las variaciones de m en n = |X| y las permutaciones
sobre X se relacionan mediante
Pn
Vmn = .
(n − m)!
Finalmente, consideremos un conjunto X tal que |X| = n, y fijemos un tamaño 0 < m <
n para los arreglos, pero esta vez no distinguiremos entre arreglos que sólo difieran por el
ordenamiento de los elementos que los conforman. Este tipo de arreglos recibe el nombre de
combinación de n en m, y la cantidad total de tales arreglos se denota mediante
 
n n
nCm = Cm = ,
m

que se lee también n tomados de a m.


Para determinar la cantidad total de este tipo de arreglos que podemos obtener a partir de
X, observemos que estamos identificando todas las variaciones de m en n que solo difieran por
el orden de sus elementos. Dada una lista fija de m elementos, ya sabemos que hay Pm = m!
reordenamientos diferentes de dichos elementos. Entonces, concluimos que

Vmn
 
n n Pn n!
Cm = = = = .
m m! (n − m)!m! m!(n − m)!

89
5.2.2 Arreglos con repeticiones
Dado un conjunto finito no vacı́o, A, una variación con repetición de tamaño r sobre A es
un elemento de Ar := A × A × · · · × A, que es el producto cartesiano de A consigo mismo r − 1
veces. Otra forma de verlo, es que una variación de tamaño r sobre A es una lista ordenada
de r elementos de A, pudiendo repetir elementos. Por ejemplo, si A = {a, b, c, 4, 5}, entonces
algunas variaciones de tamaño 3 sobre A podrı́an ser

ab4; bc4; a44; a4b; aaa; bb5

Notemos que las variaciones ab4 y a4b son consideradas diferentes.


Dado que las variaciones con repetición de tamaño r sobre A son elementos de Ar , la
cantidad total de ellas que podemos tener es la cardinalidad de Ar , ası́, si |A| = n, tenemos

V Rrn = nr . (5.1)

Consideremos ahora la siguiente situación. Digamos que tenemos 3 pelotas de color azúl, 4
pelotas de color blanco y 5 pelotas de color celeste. De cuantas formas diferentes podrı́amos
colocarlas en una fila, considerando que el intercambio entre dos pelotas del mismo color no
genera una nueva configuración? Podemos razonar de la siguiente forma: Coloquemos las
3 + 4 + 5 = 12 pelotas en una fila, iniciando con las azules, luego con las blancas y luego con
las celestes. Hecho esto, podrı́amos etiquetar las azules, degamos del a1 al a3 , las blancas del
b1 al b4 y las celestes del c1 al c5 . Las etiquetas son un elemento auxiliar que nos permitirán
distinguir entre configuraciones que difieren sólo por el intercambio de posiciones de pelotas del
mismo color. Ası́, con las etiquetas puestas, ya sabemos que hay 12! configuraciones posibles
con las 12 pelotas. Pero sabemos también que hay 3! configuraciones que difieren sólo por
un intercambio de las posiciones de las pelotas azúl, ası́ mismo hay 4! configuraciones que
sólo difieren por el intercambio entre las blancas y 5! configuraciones que sólo varı́an por el
intercambio de las celestes. Entonces, el total de configuraciones sin distinguir aquellas que
ocurren por intercambio de pelotas del mismo color será

12!
.
3!4!5!
Los arreglos de este tipo, en que existen objetos que son indistinguibles, se denominan
permutaciones con repeticiones. Podemos generalizar el argumento usado en el ejemplo
anterior para una cantidad finita de n objetos, clasificados en k < n tipos diferentes, donde,
para cada i = 1, 2, . . . , n tenemos ni objetos del tipo i. La cantidad total de ordenamientos que
podemos tener será entonces

n!
Pnn1 ,n2 ,...,nk = . (5.2)
n1 !n2 ! · · · nk !
Consideremos ahora el siguiente problema de conteo. Supongamos que tenemos n casillas

90
alineadas y queremos colocar en ellas m objetos indistinguibles. No hay restricción respecto de
cuántos objetos pueden colocarse en una misma casilla. Nos interesa saber de cuántas formas
podemos realizar dicha asignación. Podemos pensar que las casillas están definidas por n + 1
barras verticales, y los m objetos como estrellas que repartimos entre dichas barras, lo que nos
da una configuración como la siguiente

| ⋆ | ⋆ ⋆ ⋆ | ⋆ ⋆| − | ⋆ | · · · | ⋆ ⋆|,

donde la lı́nea horizontal representa una casilla no ocupada. Notamos entonces que la
repartición propuesta equivale a cambiar de orden los m + n − 1 objetos conformados por las
m estrellas y las n − 1 barras intermediarias, dado que las de los extremos quedan fijas. El
número total de ordenamientos que podemos tener de estos objetos es (m+n−1)!, pero debemos
dividirlo entre m! porque los intercambios entre estrellas no los distinguimos, y también hay
que dividir entre (n − 1)!, porque tampoco distinguimos los intercambios entre las barras. Ası́,
nos queda
(m + n − 1)!
,
m!(n − 1)!
como la cantidad total de formas en que podemos repartir los m objetos en n casillas. Este
tipo de arreglo también ocurre con suficiente frecuencia para merecer un nombre, y se lo conoce
como combinación con repetición de n elementos tomados de m en m. De forma
abstracta, lo que tenemos es un conjunto con n elementos (piense en las casillas), y queremos
formar con sus elementos grupos de tamaño m (piense en las estrellas del problema anterior), y
queremos permitirnos repetir elementos del conjunto (eso equivale a colocar más de una estrella
en una misma casilla). La cantidad de arreglos diferentes es entonces

n (m + n − 1)!
CRm = . (5.3)
m!(n − 1)!

Ejercicio 5.2.1. Muestre que  


n m+n−1
CRm = .
m

5.3 Binomio de Newton


Usaremos ahora algunas de las técnicas de conteo de las secciones previas para obtener el
desarrollo de la expresión algebraica (a + b)n , siendo n un número natural y a, b números
complejos (recuerde que consideramos N ⊂ Z ⊂ Q ⊂ R ⊂ C, y por lo tanto, el caso complejo
engloba a todos los demás conjuntos numéricos). Esta expresión se conoce como binomio de
Newton, y aparece con frecuencia en los cursos de cálculo. Un par de casos particulares son
cuando n = 2 y cuando n = 3, en cuyo caso tenemos

(a + b)2 = (a + b)(a + b) = a2 + 2ab + b2 ,

91
(a + b)3 = (a + b)(a + b)2 = (a + b)(a2 + 2ab + b2 ) = a3 + 3a2 b + 3ab2 + b3 ,

identidades que pueden verificarse fácilmente aplicando las propiedades distributiva y conmu-
tativa.
Nuestro objetivo ahora es encontrar una expansión similar para n genérico. Para ello,
observemos que
(a + b)n = (a + b) · (a + b) · · · (a + b),

donde tenemos n factores (a + b). Para obtener la expresión desarrollada debemos elegir un
elemento en cada factor, ya sea a o b, multiplicarlos para obtener una expresión de la forma
an−m bm , y luego sumar todas estas expresiones reduciendo términos semejantes. Entonces lo
que necesitamos saber es cuántos términos semejantes hay de la forma an−m bm , pues dicha
cantidad serı́a el coeficiente de este término. En cada uno de dichos términos semejantes
aparece la misma cantidad (n − m) de factores a y la misma cantidad m de factores b. Por
tanto, cada uno de los términos semejantes an−m bm es una permutación con repeticiones de n
objetos de los cuales (n − m) son del tipo a y m son del tipo b. Sabemos que la cantidad de
tales permutaciones con repeticiones que podemos tener es
 
n n! n
P(n−m),m = = . (5.4)
(n − m)!m! m

Veamos, en particular, que la única forma de lograr an es escogiendo a en cada uno de los
factores (a+b), y esto puede hacerse de una sola forma. En la fórmula anterior, esto corresponde
a m = 0, es decir  
n n!
= = 1.
0 n!
Ası́ mismo, la única forma de tener bn es escogiendo b en cada uno de los fatores (a + b), y eso
corresponde a tomar m = n en la igualdad 5.4, es decir
 
n
= 1,
n

En general, podemos escribir entonces que


n  
n
X n n−m m
(a + b) = a b . (5.5)
m=0
m

n

Esta expresión es la razón por la cual a los números m se los conoce también como
coeficientes binomiales. Como una aplicación simple del binomio de Newton tenemos la
identidad n          
X n n n n n
= + + ··· + + = 2n , (5.6)
m=0
m 0 1 n − 1 n

la cual se obtiene simplemente haciendo a = b = 1 en el binomio (a+b)n y usando su expansión.

92
n=0 1
n=1 1 1
n=2 1 2 1
n=3 1 3 3 1
n=4 1 4 6 4 1
n=5 1 5 10 10 5 1
n=6 1 6 15 20 15 6 1
Figure 5.1: Triángulo de Pascal
0

n=0  0
1 1

n=1  0 1
2 2 2
 
n=2 0 1 2
3 3 3 3
   
n=3 0 1 2 3
4 4 4 4 4
    
n=4 0  1  2 3 4
5 5 5 5 5 5
   
n=5 0 1 2 3 4 5
6 6 6 6 6 6 6
      
n=6 0 1 2 3 4 5 6

Figure 5.2: Triángulo de Pascal-Coeficientes binomiales

Ejercicio 5.3.1. Muestre que un conjunto con n elementos tiene exactamente 2n subconjuntos.
Use este resultado para obtener otra prueba de la identidad (5.6).

Estos coeficientes binomiales están también estrechamente relacionados con un arreglo de


números conocido como triángulo de Pascal. En la Figura 5.1 se puede observar un triángulo
de Pascal de 7 niveles. Note el patrón de construcción a partir de la lı́nea n = 2: en los extremos
se coloca el número 1, y los números intermediarios son iguales a la suma de sus vecinos más
cercanos en la lı́nea inmediatamente anterior.
Otra forma de obtener el triángulo de Pascal es como sigue: imaginemos que colocamos
vértices en cada posición ocupada por los números en la Figura 5.1, y los conectamos por
segmentos en diagonal. Entonces para cada nudo contamos las formas diferentes de llegar hasta
allı́ partiendo desde el vértice superior y avanzando únicamente hacia abajo por los segmentos
diagonales. Observamos entonces que, si enumeramos de forma ascendente los nudos en la lı́nea
n arrancando desde 0 en el extremo izquierdo, para llegar al nudo que ocupa la posición m en
n

la lı́nea n tenemos m formas diferentes. Ası́, obtenemos el triángulo ilustrado en la Figura
5.2. De esta forma, la lı́nea n en el trı́angulo de Pascal contiene los coeficientes de la expansión
binomial (a+b)n . El uso conjunto de las Figuras 5.1 y 5.2 nos permite calcular de forma manual
los coeficientes binomiales.

93
CAPÍTULO 6

Álgebra Matricial

Las matrices son arreglos rectangulares de números (reales o complejos) que aparecen en muchas
aplicaciones de las matemáticas en ciencias e ingenierı́as. En este capı́tulo daremos la definición
de matrices, identificaremos algunos tipos especiales de matrices y definiremos cómo realizar
operaciones de suma y multiplicación de matrices. Una vez definidas la suma y producto
de matrices, estaremos interesados en determinar qué tipos de propiedades satisfacen estas
operaciones, eso es lo que se denomina álgebra matricial. Veremos que se satisfacen algunas
propiedades familiares similares a las que se cumplen con los números reales (o complejos), y
veremos que hay algunas propiedades que dejan de ser válidas en el contexto matricial. De
entre todas las aplicaciones de las matrices, una que será de espacial importancia para nosotros
es su conexión con los sistemas de ecuaciones lineales, que veremos en el siguiente capı́tulo,
luego de establecer el lenguaje básico de las matrices y su álgebra. Como fuente de ejercicios
el lector puede consultar las referencias [9, 1, 3].

6.1 Definición y ejemplos


En este capı́tulo usaremos la notación K para representar tanto el conjunto R, de números
reales, como el conjunto C, de números complejos. Dado un número natural n, consideraremos
nuevamente
Jn = {1, 2, . . . , n}.

Una matriz m × n, con entradas en K es una función

A : Jm × Jn → K .

Dado un elemento (i, j) ∈ Jm × Jn , su imagen A(i, j) se denota usualmente mediante

94
A(i, j) = aij .

Recordemos, del capı́tulo anterior, que |Jm × Jn | = |Jm | · |Jn | = mn. Ası́, conocer completa-
mente la matriz A : Jn × Jn → K equivale a conocer su valor en los mn elementos (i, j) del pro-
ducto cartesiano Jm × Jn . Es útil adoptar una notación especial para la matriz A : Jm × Jn → K
ordenando sus valores A(i, j) = aij en un arreglo rectangular encerrado entre paréntesis o
corchete, como sigue:  
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
 .
 . .. .. ..  (6.1)
 . . . . 

am1 am2 ··· amn
Dado que la función A : Jm ×Jn → K queda completamente determinada una vez que conocemos
todos los valores A(i, j) = aij , es común identificar el arreglo rectangular indicado en (6.1) con
la matriz A : Jm × Jn → K, y escribir
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A=
 .. .. .. ..  (6.2)
 . . . . 

am1 am2 ··· amn
En esta notación, a los números aij se los denomina la entrada ij de la matriz A. También
diremos que la matriz A expresada en (6.2) tiene m filas y n columnas. Al conjunto de todas
la matrices m × n con entradas en K usualmente se la denota mediante Mm×n (K).

Ejemplo 6.1.1. A continuación tenemos algunos ejemplos de matrices


 
3 2/3 −2 0 " #
3 1 2 + 3i 7i
A = −4 π 7 1 ;B =
 
√ −4 3 1 1+i
5 8 3 2

La matriz A es 3 × 2 y tiene entradas reales, es decir, es un elemento del conjunto M3×2 (R). La
matriz B es 2 × 4 y tiene entradas complejas, es decir, es un elemento del conjunto Mm×n (C).

Si A y B son dos matrices m × n con entradas en K, dado que son funciones, entonces
tendrı́amos A = B si aij = A(i, j) = B(i, j) = bij para todo elemento (i, j) ∈ Jm × Jn . En
la notación de arreglo rectangular esto ocurre si, y sólo si, las entradas correspondientes a la
misma posición ij son iguales.
La matriz O : Jm × Jn → K definida mediante O(i, j) = 0 para todo (i, j) ∈ Jm × Jn se
denomina matriz nula. En la notación de arreglo rectangular corresponde a un arreglo en el
cual todas las entradas son nulas.

95
6.2 Operaciones con matrices
Definiremos ahora algunas operaciones entre matrices y exploraremos sus propiedades básicas.
Estas propiedades nos facilitarán las manipulaciones algebraicas con matrices, y nos permitirán
también explorar una primera situación en que propiedades familiares de los números y sus
operaciones dejan de ser válidas.

6.2.1 Suma y producto por escalar


Dadas dos matrices A, B : Jm × Jn → B, definimos su suma como la matriz

A + B : Jm × Jn → K; (A + B)(i, j) := A(i, j) + B(i, j).

En términos de la notación de arreglo rectangular, lo que tenemos es que la entrada ij de la


matriz A + B es aij + bij . Es decir, A + B se obtiene sumando entre sı́ las respectivas entradas
de las matrices A y B, que ocupan la misma posición ij dentro del arreglo rectangular.
Es usual llamar escalar a los elementos de K. Dada una matriz A : Jm × Jn → K, y un
escalar α ∈ K, definimos el producto de A por α como la matriz

αA : Jm × Jn → K; (αA)(i, j) = αaij .

Nuevamente, en términos de la notación rectangular, la entrada ij de la matriz αA es αaij , es


decir, la entrada ij de A multiplicada por el número α. En la siguiente proposición compilamos
las propiedades básicas de estas operaciones.

Proposición 6.2.1. Para matrices m × n, se cumplen las siguientes propiedades.

a) La suma de matrices es conmutativa, es decir

A + B = B + A.

b) La suma de matrices es asociativa, es decir

(A + B) + C = A + (B + C).

c) La matriz nula O es el elemento neutro para la suma de matrices. Es decir

A + O = A.

d) Dada una matriz A, la matriz −A cuyas entradas son los negativos de las entradas de A
es el opuesto aditivo de A, es decir

A + (−A) = O.

96
e) El producto por escalar distribuye sobre la suma de escalares. Esto es, si α y β son
escalares, y A es una matriz, entonces

(α + β)A = αA + βA.

f ) El producto por escalar distribuye sobre la suma de matrices. Esto es, si α es un escalar,
y A y B son matrices, entonces

α(A + B) = αA + αB.

g El producto por escalar y el producto entre escalares es asociativo. Esto es, si α y β son
escalares y A es una matriz, entonces

(αβ)A = α(βA).

Prueba. Probaremos algunas de las propiedades, a modo de ejemplo. Las restantes quedan
como ejercicio.

a) La entrada ij de A + B es aij + bij . Pero esta suma es conmutativa, porque es la suma


en K, y por lo tanto tenemos aij + bij = bij + aij , que es la entrada ij de B + A. Ası́,
A + B = B + A, porque tienen las mismas entradas en las posiciones correspondientes.

e) La entrada ij de (α + β)A es (α + β)aij . Aquı́ tenemos el producto y la suma en K, que


sabemos que es distibutiva, y por lo tanto tenemos

(α + β)aij = αaij + βaij .

La expresión del lado derecho es la entrada ij de la matriz αA + βA. Ası́, concluimos que
(α + β)A = αA + βA.

6.2.2 Producto de matrices


Consideremos dos matrices, una m × n, que llamaremos A y otra n × p, que llamaremos B.
Entonces, definimos el producto de A por B, denotado mediante AB como la matriz cuya
entrada ij está dada por
n
X
cij := aik bkj = ai1 b1j + a12 b2j + · · · ain bnj . (6.3)
k=1

Una forma de recordar esta expresión es mediante el siguiente diagrama:

97
 
a11 a12 · · · a1n  
 .
 .. .. .. ..  b11 · · · b1j · · · b1p
. . . 
  b21
  · · · b2j · · · b2p 
 
 ai1 ai2 · · · ain  ·  , (6.4)

 .. .. .
. ..
.. .. 
. . 
 .
 .. .. .. ..   .
.

. . 

 bn1 · · · bnj · · · bnp
am1 am2 · · · amn
donde la matriz de la izquierda es A y la de la derecha es B. Para obtener la entrada cij de
AB la i-ésima fila de A (resaltada en rojo) y la j-ésima columna de B (resaltada en rojo) se
multiplican componente a componente y los resultados de esos productos se suman entre sı́.

Ejemplo 6.2.2. Consideremos el producto de las matrices


 
" # 0 1 0
3 1 2 0 2 3 1
A= ; B=
 
−4 0 1 0

2 0 0
1 1 1

Tenemos " #
6 6 1
AB = .
2 −4 0

Observación 39. En el ejemplo anterior, observamos que el producto BA no puede realizarse.


Para realizar el producto de una matriz por otra, es fundamental que la matriz de la izquierda
tenga tantas columnas como filas tenga la matriz de la derecha. Esta condición está dada en la
definición, al considerar A siendo m × n y B siendo n × p.

Ejemplo 6.2.3. Consideremos las matrices


 
" # 0 1
3 1 2 0 2 3
A= ; B= .
 
−4 0 1 0 2 0
1 1
Vemos que A es 2 × 3 y que B es 3 × 2. Por lo tanto, en este caso podemos calcular tanto
AB como BA. Veamos los resultados
 
" # −4 0 1 0
6 6 −6 2 7 0
AB = ; BA =  .
 
2 −4  6 2 4 0
−1 1 3 0

Vemos que si bien podemos calcular AB y BA, los resultados son diferentes. De hecho, ni
siquiera son matrices de las mismas dimensiones.

98
Ejemplo 6.2.4. Consideremos las siguientes matrices
" # " #
3 1 0 1
A= ; B= .
−4 0 2 3

Nuevamente, las dimensiones de las matrices nos permiten calcular tanto AB como BA. Obten-
emos lo siguiente: " # " #
2 6 −4 0
AB = ; BA = .
0 −4 −6 2
En este caso, si bien las matrices AB y BA tienen las mismas dimensiones, ellas no son iguales.

Observación 40. Lo que se ilustra en los dos ejemplos precedentes es una de las caracterı́sticas
principales del producto de matrices: la operación no es conmutativa. Esto contrasta con lo
que estamos acostumbrados a tener con el producto de números en todos los conjuntos numéricos
N, Z, Q, R, C, que hemos visto hasta ahora.

Si bien el producto de matrices no es conmutativo, dicha operación sı́ satisface varias


propiedades usuales del producto de números, como veremos a continuación. Una de tales
propiedades considera la existencia de matrices que actuan como identidad para el producto.
Dado un número natural n, denotaremos mediante In la matriz identidad n × n, que está
dada por In (i, j) = δij . Es decir, I(i, j) es 1 si i = j y es 0 si i ̸= j. En la notación de arreglo
rectangular, tendremos:  
1 0 ··· 0
0 1 · · · 0
 
In  . . .

.
.. 
 .
. .
. . . .
0 0 ··· 1
Para simplificar los enunciados de las propiedades, asumiremos que siempre que indiquemos
un producto de matrices, el mismo es posible, es decir, que se dan las condiciones sobre sus
dimensiones para poder realizar el producto indicado.

Proposición 6.2.5. El producto de matrices satisface las siguientes propiedades.

a) Es asociativo: A(BC) = (AB)C

b) Si α es un escalar, entonces α(AB) = (αA)B.

c) Distribuye sobre la suma: A(B + C) = AB + AC y (A + B)C = AC + BC.

d) Si A es m × n, entonces
Im A = A = AIn .

Prueba. La verificación de estas propiedades (que queda como ejercicio) consiste en aplicar la
fórmula para producto de matrices, y constatar que en cada igualdad propuesta, las entradas
en posiciones ij correspondientes coinciden.

99
El ı́tem d) de la Proposición 6.2.5 plantea una cuestión interesante. Recordemos que en
los conjuntos numéricos, la existencia de un elemento identidad para el producto nos llevaba a
plantearnos si un determinado número tendrá o no un inverso en relación al producto. Hemos
visto que en Z no tenemos inversos multiplicativos, pero sı́ los tenemos en Q, R y C.
Dado que las matrices identidades actuan como neutros para el producto matricial, podrı́amos
plantearnos si dada una matriz A de dimensión m×n, habrá otra, digamos B que sea su inverso
multiplicativo. Lo primero que debemos notar es que al ser m ̸= n, podemos tener una matriz
B de dimensión n × m y otra matriz C de dimensión n × m que nos permitan realizar los
productos AB y CA, resultando en matrices m × m y n × n, respectivamente.
Diremos que la matriz B de dimensión n × m es una inversa a derecha de A si

AB = Im .

Diremos que la matriz C de dimensión n × m es una inversa a izquierda de A si

CA = In

A cualquiera de las inversas (por izquierda o por derecha) se las llama inversas laterales.
No toda matriz tiene ambas inversas laterales, y cuando tiene una invesa lateral, puede que no
sea única, como ilustramos en el siguiente ejercicio.

Ejercicio 6.2.6. Considere la matriz


" #
1 0 1
A= .
0 1 1

Verifique que las matrices    


0 0 0 0
B = −1 1 ; C = 0 1
   

1 0 1 0
ambas satisfacen AB = AC = I2 .

Ası́, la matriz A admite más de una inversa lateral derecha. Por otro lado, no admite
inversa lateral izquierda, pero para comprender por qué, necesitamos conceptos de sistemas de
ecuaciones lineales.

6.3 Algunas matrices especiales


Existen varias clasificaciones de matrices en función de determinadas propiedades que puedan
satisfacer o no. Una de las primeras clasificaciones tiene que ver son sus dimensiones. Diremso
que una matriz A es cuadrada cuando tiene igual número de filas que de columnas, ası́ su
dimensión es de la forma n×n. En este caso, es usual decir que A es una matriz n-cuadrada. La

100
primera obervación del porqué las matrices cuadradas merecen un destaque es que el producto
de dos matrices n-cuadradas es nuevamente una matriz n-cuadrada. Ası́, el conjunto Mn×n (K),
es cerrado para la operación de producto matricial. Y en este caso, existe una sola matriz
identidad In ∈ Mn×n , la cual actua como neutro para el producto matricial, es decir

AIn = A = In A,

para cualquier matriz n-cuadrada A. También, para una matriz n-cuadrada A podemos iden-
tificar elementos relevantes, como su diagonal principal, consitente de las entradas aii , y la
diagonal secundaria, consitente de las entradas aij tal que i + j = n + 1. La traza de una
matriz n-cuadrada A es la suma de los elementos de su diagonal principal.
Si A es una matriz n-cuadrada y admite ambas inversas laterales, entonces decimos que A
es invertible. En este caso, las inversas laterales por la izquierda y por la derecha coinciden,
es decir
CA = In = AB =⇒ B = C.

En particular, si A es una matriz n-cuadrada que admite inversas laterales por izquierda y
por derecha, entonces existe una única matriz X que satisface la ecuación

AX = In = XA. (6.5)

Denotamos dicha matriz mediante A−1 , y la llamamos la matriz inversa de A.

Observación 41. Notemos que la ecuación (6.5) caracteriza a la iversa de A. Esto es, es útil
cuando tenemos una matriz Y que es candidata a ser inversa de A, pues bastará sustituir la X
en la expresión AX con la matriz Y y determinar si el resultado es o no la identidad In .

Entre las matrices cuadradas tenemos otras con caracterı́sticas adicionales relevantes, como
son las triangulares. Estas son matrices n-cuadradas cuyas entradas, o bien por debajo de la
diaginal principal o bien por arriba de la diagonal principal, son todas nulas. Esto se formaliza
de la siguiente forma: una matriz n-cuadrada A es triangular superior si aij = 0 siempre
que i > j y es triangular inferior si aij = 0 siempre que i < j.

Ejemplo 6.3.1. Las siguientes matrices son triangulares


 
" # 1 0 0
1 2
A= ; B = 2 0 0 .
 
0 3
4 2 2

Vemos que A es triangular superior, en tanto que B es triangular inferior. Note que las matrices
triangulares pueden tener elementos nulos en su diagonal principal.

Una matriz n-cuadrada que es simultáneamente triangular inferior y triangular superior se


denomina matriz diagonal. Formalmente, esto significa que aij = 0 siempre que i ̸= j.

101
Ejemplo 6.3.2. Las siguientes matrices son diagonales
 
  1 0 0 0
1 0 0 0 0 0 0 
A = 0 3 0  ; B= .
   
0 0 2 0 
0 0 2i √
0 0 0 2

Dada una matriz A, de dimensión m × n, definimos su transpuesta como la matriz AT ,


de dimensión n × n, cuyas entrada en la posición ij es aji . Esto tiene el efecto de transformar
ordenadamente las columnas de A en filas de AT . Cuando la matriz A es n-cuadrada, su
transpuesta AT es nuevamente n-cuadrada, y si tenemos A = AT decimos que A es una matriz
simétrica.

Ejercicio 6.3.3. Verifique las siguientes propiedades matriciales.

a) Para todo A, B ∈ Mm×n (K) y α, β ∈ K, se tiene

(αA + βB)T = αAT + βB T .

b) Para todo A ∈ Mm×n (K) se tiene (AT )T = A.

c) Si A y B son dos matrices compatibles para multiplicarlas, entonces

(AB)T = B T AT .

d) Si A es una matriz n-cuadrada invertible, con inversa A−1 , entonces AT es invertible y


se tiene
(AT )−1 = (A−1 )T .

6.3.1 Determinante
Para las matrices n-cuadradas podemos definir el concepto de determinante. Históricamente los
determinantes surgieron en el contexto de la resolución de sistemas de ecuaciones lineales. Más
tarde, con el desarrollo de la teorı́a de matrices se encontró que el concepto de determinante está
estrechamente ligado a las matrices y codifica información sobre las mismas, y está asociado a
una interpretación geométrica.
Existen varias formas equivalentes de definir el determinante de una matriz n-cuadrada. Una
de ellas es mediante una fórmula explı́cita, y no es recomendable por al menos dos razones:
la primera es que usa nociones de combinatoria que no hemos estudiado, y la segunda es que
es muy ineficiente desde el punto de vista computacional. Otra opción para introducir los
determinantes es tomar un enfoque axiomático, a partir de propiedades básicas que deseamos
que satisfaga. Este es el enfoque más eficiente, pero apela a conceptos sofisticados que sólo

102
serán estudiados en cursos posteriores. Una tercera alternativa, intermediaria entre las dos ya
mencionadas, toma un enfoque recursivo. Esto quiere decir que la definición del determinante
de una matriz n-cuadrada queda en términos de la definición para una matriz (n − 1)-cuadrada.
Es esta tercera alternativa la que tomaremos en este curso.
La idea de la definición recursiva es reducir el determinante de una matriz n-cuadrada al
determinante de una situación base. En este caso, tomamos el caso n = 2 como el caso base, y
definimos el determinante de una matriz A de dimensión 2 × 2 como

det(A) = |A| = a11 a22 − a21 a12 . (6.6)

Con el determinante de matrices 2×2 ya definido, podemos avanzar hacia la definición recursiva
para matrices n-cuadradas, con n > 2. Antes, necesitamos introducir un par de conceptos
relacionados.
Dada una matriz una matriz n-cuadrada, A, el menor asociado a la entrada aij , denotado
Mij es el determinante de la matriz (n − 1)-cuadrada que se obtiene al eliminar de A su i-ésima
fila y su j-ésima columna. El cofactor del elemento aij , denotado por Cij , se define como

Cij := (−1)i+j Mij . (6.7)

Observación 42. Notemos aquı́ el elemento recursivo. Si A es una matriz 3 × 3, podemos


determinar sus menores, pues estos serán determinantes de matrices 2 × 2, que ya tenemos
definido. Si A es una matriz 4 × 4, sus menores son determinantes de matrices 3 × 3, que aún
no sabemos calcular. Para ello debemos completar la definición recursiva.
Dada una matriz n-cuadrada A, definimos (recursivamente) su determinante mediante

det(A) = |A| = a11 C11 + a12 C12 + · · · + a1n C1n . (6.8)

Ası́, el determinante de la matriz n-cuadrada A queda en términos de sus cofactores, que


son los menores (con signo) de A, los cuales son determinantes de matrices (n − 1) cuadradas.
Estos determinantes a su vez pueden expresarse en términos de sus menores con signo, los cuales
son determinantes de matrices (n − 2)-cuadradas. Prosiguiendo, recursivamente, se llegará a
expresar el determinante de la matriz n-cuadrada en términos de determinantes de matrices
2 × 2, para los cuales tenemos la fórmula explı́cita dada en la ecuación (6.6).
Observación 43. La expresión de la derecha en la ecuación (6.8) se conoce como expansión
en cofactores por la primera fila. Algunas observaciones en relación a la definición valen
la pena. La primera, de caracter conceptual, es que podrı́amos tomar cualquier fila i y realizar
la expansión en cofactores por dicha fila, obteniendo la expresión

ai1 Ci1 + ai2 Ci2 + · · · + ain Cin ,

cuyo resultado será el mismo que el correspondiente a la expansión dada en (6.8). Ası́ mismo,

103
en lugar de expandir por una fila, podemos expandir por una columna. Ası́, si tomamos la
j-ésima columna, obtendremos la expansión

a1j C1j + a2j C2j + · · · + anj Cnj .

Todas estas expansiones dan el mismo resultado numérico, y dicho número invariante es lo que
denominamos det(A). El hecho de que todas estas expansiones dan el mismo resultado es una
propiedad que no demostraremos en este curso.
La segunda observación, de caracter más práctico, es que para realizar los cálculos conviene
tomar la expansión por la fila o columna que contenga la mayor cantidad de elementos nulos,
pues la sumatoria quedará con menos sumandos a ser calculados.

Ejemplo 6.3.4. Calculemos el deteminante de la siguiente matriz 3 × 3:


 
2 3 1
A = 1 4 2 .
 

3 5 1

Expandiendo en cofactores por la primera fila, obtenemos

det(A) = 2C11 + 3C12 + 1C13 ,

donde

C11 = (−1)2 (4 · 1 − 5 · 2) = −6; C12 = (−1)3 (1 · 1 − 3 · 2) = 5; C13 = (−1)4 (1 · 5 − 3 · 4) = −7.

Ası́, resulta det(A) = 2 · (−6) + 3 · 5 + 1 · (−7) = −4.

Ejemplo 6.3.5. Calculemos el determinante de la siguiente matriz 4 × 4:


 
1 3 2 5
0 2 0 3
A= .
 
2 1 0 5
0 7 0 9

Vemos que la columna 3 contiene más ceros que cualquier otra columna o fila. Entonces con-
viene realizar la expansión en cofactores por esta columna, obteniendo

det(A) = 2C13 + 0C23 + 0C33 + 0C42 = 2C13 .

Por su parte, tenemos


C13 = (−1)4 M13 = M13 ,

104
donde
M13 = det(A13 ),

siendo  
0 2 3
A13 = 2 1 5 .
 

0 7 9

Aquı́, vemos que la primera columna es la que más ceros contiene, y por lo tanto conviene
calcular det(A13 ) expandiendo por su primera colmuna, obteniendo ası́:

C13 = M13 = det(A13 ) = 2C21 = 2(−1)3 (2 · 9 − 7 · 3) = −2(−3) = 6.

Ası́, obtenemos finalmente


det(A) = 2 · 6 = 12.

En la siguiente proposición listaremos sin demostración algunas propiedades básicas de los


determinantes. Estas propiedades pueden ser útiles para calcular determinantes.

Proposición 6.3.6. El determinante de una matriz n-cuadrada satisface las siguientes propiedades.

a) det(In ) = 1.

b) Dada una matriz A, lo escribiremos como A = [A∗1 |A∗j | · · · |A∗n ], donde A∗j indica la
j-ésima columna de A. Si la j-ésima columna de A es de la forma
 
b1j + c1j
 b2j + c2j 
 
A∗j =   ..  = B∗j + C∗j ,
.

 
bnj + cnj

entonces

det(A) = det([A∗1 | · · · |B∗j | · · · |A∗n ]) + det([A∗1 | · · · |C∗j | · · · |A∗n ]).

c) Si todos los elementos de una columa de A se multiplican por una constante c, entonces
el determinate de A queda multiplicado por c.

d) Si dos columnas de A se repiten, entonces det(A) = 0.

e) Si se intercambian dos dolumnas cualesquiera de A, entonces su determinante cambia de


signo.

f ) Si una columna de A se sustituye por su suma con el múltiplo de otra columna de A,


entonces el determinante de A queda inalterado.

105
g) A es invertible si y sólo si det(A) ̸= 0, y en ese caso se tiene det(A−1 ) = 1
det(A)
.

h) Si A y B son matrices n-cuadradas, entonces det(AB) = det(A) det(B).

i) Si A es triangular (inferior o superior), entonces det(A) es el producto de los elementos


de la diagonal principal de A.

j) det(A) = det(AT ).

Observación 44. En cursos posteriores se demostrará que el determinante de una matriz n-


cuadrada queda completamente determinado por las primeras cuatro propiedades listadas en la
Proposición 6.3.6. Esto significa que se pueden tomar estas propiedades como los axiomas que
definen al determinante. En particular, todas las demás propiedades listadas en la Proposición
6.3.6 pueden deducirse de las primeras cuatro. Note también que, como consecuencia de la
propiedad i), todas las propiedades del determinante enunciadas sobre las columnas de la matriz
A pueden enunciarse sobre las filas de la matriz A. Otro aspecto importante se revela con la
propiedad h) y ofrece uno de los métodos más eficientes para el cálculo de determinantes,
consistente en transformar una matriz n-cuadrada A a una matriz triangular. Dicho proceso
de tranformación se conoce como escalonamiento, y lo detallaremos más en la siguiente unidad,
en el contexto de los sistemas de ecuaciones lineales.

6.3.1.1 Regla de Sarrus

La expansión en cofactores por filas o columnas se conoce con el nombre de método de


Laplace. Es un método que sirve para calcular el detereminante de matrices n-cuadradas para
cualquier valor de n, pero puede ser computacionalmente muy costoso. Para matrices 3 × 3
existe un método más simple, conocido como el método de Sarrus. Al igual que el método de
Laplace, el método de Sarrus viene en dos variantes, uno que trabaja con las filas de la matriz,
y otro que trabaja con las columnas de la matriz.
Ilutremos el método trabajando con las columnas. Para ello, consideramos la matriz
 
a11 a12 a13
A = a21 a22 a23  .
 

a31 a32 a33

Lo que propone el método de Sarrus es repetir las primeras dos columnas inmediatamente
a la derecha de la tercera columna, para obtener un arreglo ampliado como el siguiente:

a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

106
Ahora, se procede a multiplicar entre sı́ las entradas conectadas por flechas, asignando signo
positivo a las que se conectan por flechas sólidas y signo negativo a las que se conectan por
flechas segmentadas. El determinante de A será entonces la suma algebraica de todos esos
productos.

Ejercicio 6.3.7. Describa el método de Sarrus trabajando por filas.

El método de Sarrus es práctico para matrices 3 × 3 con pocas o ninguna entrada nula. Pero
cuando hay muchas entradas nulas, puede ser más rápido calcular el determinante mediante la
expansión de Laplace.

107
CAPÍTULO 7

Sistemas Lineales

En esta unidad estudiaremos los sistemas de ecuaciones lineales con dos objetivos en mente.
El primero es comprender los sitemas de ecuacciones lineales en un un lenguaje matricial, y
el segundo es aprender un método de resolución muy versátil, conocido como eliminación
gaussiana. Para profundizar el concepto y como fuente de ejercicios, el lector puede consutlar
las referencias [9, 1, 3].
Recordemos la interpretación geométrica de un sistema de dos ecuaciones lineales con dos
incógnitas. Tomemos como ejemplo el siguiente sistema

2x − y = 1,
(7.1)
x + y = 5.

Resolver este sistema consiste en determinar todos los pares (x, y) ∈ R2 tales que al sustituir
los valores de x e y en las ecuaciones que conforman el sistema, la igualdad sea verificada.
Puede ocurrir, como es el caso de este ejemplo, que exista una única solución (x, y) ∈ R 2.
Geométricamente esto está claro, pues las ecuaciones dadas definen rectas en el plano, y los
pares (x, y) ∈ R2 que satisfacen ambas ecuaciones son precisamente los puntos del plano que
están al mismo tiempo sobre ambas rectas, es decir, son los puntos donde estas rectas se
intersecan, y vemos que eso ocurre en un solo punto (ver Figura 7.1 ), que en este caso es el
punto (2, 3)
Con la interpretación geométrica, es fácil observar que pueden haber sistemas lineales que
no tienen solución, como el del siguiente ejemplo

x − y = 0,
(7.2)
x − y = 2,

108
Figure 7.1: Gráfica del sistema (7.1)

el cual corresponde a dos rectas paralelas en el plano. También podrı́amos tener sistemas con
infinitas soluciones, como serı́a el caso del siguiente ejemplo

2x + y = 5,
(7.3)
4x + 2y = 10.

Pues corresponde a “dos rectas que coinciden”, y por lo tanto cualquier par (x, y) ∈ R2 que
satisfaga una de las ecuaciones, satisfará también la otra.
Si consideramos sistemas de tres ecuaciones con tres incógnitas, la interpretación geométrica
nos conduce a considerar planos en el espacio R3 . Concretamente, un sistema de 3 ecuaciones
con 3 incógnitas, de la forma

a11 x + a12 y + a13 z = b1 ,


a21 x + a22 y + a23 z = b2 , (7.4)
a31 x + a32 y + a33 z = b3 ,

donde los aij , bi son constantes, corresponde a 3 planos en el espacio R3 . Resolver este sistema
consiste en determinar todas las ternas (x, y, z) ∈ R3 que satisfacen simultáneamente las 3
ecuaciones. Geométricamente, esto significa determinar todos los puntos (x, y, z) ∈ R3 que
pertenecen simultáneamente a los 3 planos. En este caso, las constantes aij , bi definen las
posiciones relativas de dichos planos, y dependiendo de dichas posiciones relativas, tendremos
que el sistema pueden no tener soluciones, tener una única solución, o tener infinitas. En la
Figura 7.2, ilustramos (las trazas de) algunas situaciones en las cuales el sistema o bien no
admite solución, o admite infinitas. Podrı́a decidir en cada caso si no hay solución o si hay
infinitas?
En cursos previos se estudian métodos para resolver sistemas de ecuaciones lineales de
hasta 3 ecuaciones con 3 incógnitas. En esta unidad introduciremos el método de Gauss,
que nos permitirá analizar sistemáticamente sistemas de ecuaciones sin importar la cantidad

109
Figure 7.2: Trazas de varias posiciones relativas de 3 planos en el espacio

de ecuaciones ni la cantidad de incógnitas. Por simplicidad, sin embargo, nos centraremos


en el caso en que tenemos la misma cantidad de ecuaciones que de incógnitas. El método que
estudiaremos funciona igualmente bien ya sea que las constantes en las ecuaciones sean números
reales o sean números complejos. Por lo tanto, para discutir los aspectos conceptuales, usaremos
la notación K para referirnos simultáneamente a R y a C.

7.1 Sistema lineal en Kn - Equivalencia


Un sistema de n ecuaciones lineales en Kn es un conjunto de ecuaciones de la forma

a11 x1 + a12 x2 + · · · + a1n xn = b1 ,


a21 x1 + a22 x2 + · · · + a22 xn = b2 ,
.. (7.5)
.
an1 x1 + an2 x2 + · · · + ann xn = bn ,

donde los aij , bi son todos elementos constantes de K. Una solución de este sistema es una
lista ordenada (x1 , x2 , . . . , xn ) ∈ Kn tal que al sustituir los valores de cada xj en las ecuaciones
del sistema, todas ellas se verifican. Si llamamos S al sistema dado en la (7.5), el conjunto
solución de S, que denotaremos mediante C(S) es el conjunto formado por todas las soluciones
del sistema S. El sistema S se denomina compatible, o consistente si su conjunto solución es
no vacı́o (es decir, cuando el sistema admite al menos una solución). El sistema S se denomina
inconsistente o incompatible si su conjunto solución es vacı́o (es decir, si el sistema no
admite solución). Entre los sistemas compatibles, podemos diferenciar dos casos: aquellos en
los cuales la solución es única, en cuyo caso decimos que el sistema es determinado, y aquellos
en los cuales el sistema admita infinitas soluciones, en cuuyo caso decimos que el sistema es
indeterminado.
Dos sistemas S y S ′ se denominan equivalentes si tienen el mismo conjunto solución, esto
es, si C(S) = C(S ′ ). Esto significa que toda solución del sistema S es también solución del
sistema S ′ , y toda solución del sistema S ′ es también solución del sistema S. El concepto
de equivalencia es clave para el método de resolución que estudiaresmos, pues básicamente
consiste en aplicar transformaciones a un sistema de tal manera a transformarlo a un sistema

110
equivalente, pero que sea fácil de resolver.

7.1.0.1 Sistema Triangular

Un sistema de n ecuaciones con n incógnitas se denomina triangular (superior) si se tiene


aij = 0 siempre que i > j. Los coeficientes nulos tienen el efecto de que la incógnita a la
cual acompañan no aparece en la ecuación escrita de forma explı́cita, ası́, un sistema trinagular
(superiot) tiene la forma

a11 x1 + a12 x2 + a13 x3 + · · · + a1n xn = b1 ,


a22 x2 + a23 x3 + · · · + a22 xn = b2 ,
a33 x3 + · · · + a22 xn = b2 , (7.6)
..
.
ann xn = bn .

Observación 45. Un sistema triangular es un caso particular de un sistema escalonado. Un


sistema es escalonado si, al ordenar las incógnitas x1 , x2 , . . . , xn en orden de ı́ndice creciente,
y al tomar i < j, los primeros coeficientes no nulos aik y ajr son tales que k < r. En palabras
llanas, esto significa que al alinear las ecuaciones por las incógnitas, una ecuación dada tiene
su primera entrada no nula a la derecha de la primera entrada no nula de cualesquiera de las
ecuación previas. Los sistemas escalonados generales (no necesariamente triangulares) plantean
algunas complicaciones en su análisis, y lo dejaremos para cursos posteriores.

Dado un sistema triangular, es fácil determinar si el mismo es compatible o no, pues será
compatible y determinado si y sólo si ann ̸= 0. En tal caso, también es fácil obtener la
solución del sistema mediante el proceso conocido como sustitución para atrás, que consiste
en despejar xn de la última ecuación, obteniendo su valor

bn
xn = ,
ann

luego se procede a sustituir este valor en la ecuación previa, de donde se puede despejar xn−1
para obtener su valor
1
xn−1 = (bn−1 − a(n−1)n xn ).
a(n−1)(n−1)
A continuación se sustituyen los valores obtenidos de xn y xn−1 en la ecuación número (n − 2),
de donde se despeja la incógnita xn−2 . Prosiguiendo de esta forma, se terminará por determinar
el valor de cada incógnita, desde xn hasta x1 .

111
Ejemplo 7.1.1. El sistema de ecuaciones lineales

3x1 + x2 − 2x3 = 2,
2x1 + x2 + 4x3 = 1, (7.7)
6x1 + 2x2 + 3x3 = 3,

es equivalente al siguiente sistema triangular

3x1 + x2 − 2x3 = 2,
x2 + 16x3 = −1, (7.8)
7x3 = −1.

Esto significa que el conjunto solución de ambos sistemas son lo mismo. No es evidente cómo
obtener la solución del primer sistema, pero en el segundo sistema podemos aplicar la sustitución
para atrás, que hemos decrito previamente. Ası́, de la última ecuación del sistema triangular
obtenemos
1
x3 = − ,
7
lo cual sustituimos en la ecuación previa para obtener
 
1 −7 + 16 9
x2 = −1 − 16 − = = .
7 7 7

Sustituyendo los valores de x1 y x2 en la primera ecuación, obtenemos


  
1 9 1 1 14 − 9 − 2 1
x1 = 2− +2 − = = .
3 7 7 3 7 7

Ası́, la solución (única) del sistema dado es


 
1 9 1
, ,− .
7 7 7

En el ejemplo anterior se nos proveyó la información adicional de que los sistemas son
equivalente, y por lo tanto procedimos a resolver el sistema triangular, en lugar del sistema
original. El método de Gauss, que estudiaremos en breve, es la herramienta para transformar
cualquier sistema de ecuaciones lineales consistente y determinado a uno triangular equivalente,
y por lo tanto nos da la posibilidad de resolverlo mediante sustitución para atrás. Antes de
pasar a estudiar este método, explicaremos cómo representar un sistema de ecuaciones lineales
en notación matricial.

112
7.1.1 Sistema de ecuaciones lineales en notación matricial
Consideremos de nuevo un sistema de n ecuaciones lineales en Kn ,

a11 x1 + a12 x2 + · · · + a1n xn = b1 ,


a21 x1 + a22 x2 + · · · + a22 xn = b2 ,
.. (7.9)
.
an1 x1 + an2 x2 + · · · + ann xn = bn .

Si consideramos las matrices


     
a11 a12 · · · a1n b1 x1
 a21 a22 · · · a2n   b2   x2 
     
A=  .. .. .. . ; b=
 ..  ;
 x=
 ..  ;

 . . . ..   .  .
an1 an2 · · · ann bn xn

observamos que el sistema de ecuaciones lineales (7.9) puede escribirse como


     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
     
A=
 .. .. . . . ..  ·  ..  =  ..  .
    
 . . .  . .
an1 an2 · · · ann xn bn

En esta notación, a la matriz A se la conoce como matriz de coeficientes del sistema,


la matriz columna b se llama vector de términos independientes, y la matriz columna x
se llama vector incógnita. Con la notación matricial, el sistema (7.9) puede expresarse de
forma compacta como
Ax = b. (7.10)

7.1.2 Método de Gauss


Dado un sistema de ecuaciones lineales

a11 x1 + a12 x2 + · · · + a1n xn = b1 ,


a21 x1 + a22 x2 + · · · + a22 xn = b2 ,
.. (7.11)
.
an1 x1 + an2 x2 + · · · + ann xn = bn ,

el método de Gauss consiste en aplicar sucesivamente al sistema una o más de un grupo de


tres transformaciones básicas, llamadas transformaciones elementales, hasta transformar
el sistema original en un sistema triangular equivalente. Para describir las transformaciones,

113
convendra introducir la siguiente notación: pongamos Ei para designar a la i-ésima ecuación
del sistema, comenzando a contar desde arriba. Ası́, las transformaciones elementales de Gauss
son las siguientes:
I) Intercambiar de posiciones dos ecuaciones. Podemos representar esto como

Ei ↔ Ej .

II) Multiplicar una ecuación por una constante α ∈ K no nula. Podemos representar esto
como
Ei ←[ αEi .

Es decir, que la ecuación Ei es sustituida por un múltiplo de ella misma.

III) Sustituir una ecuación por ella misma más un múltiplo de otra ecuación. Podemos rep-
resentar esto como
Ei ←[ Ei + αEj .

La clave del método de Gauss está en el siguiente resultado.


Proposición 7.1.2. Cualquiera de las tres transformaciones elementales aplicadas a un sistema
de ecuaciones lineales lo transforma en un sistema equivalente.
Observación 46. Dejaremos la demostración de este resultado para un curso posterior, pero
queda la invitación para quien desee intentarlo como un ejercicio.
El método de Gauss (también conocido como método de eliminación o método de
escalonamiento) consiste en aplicar sucesivamente las tres transformaciones elementales, o
alguna(s) de ellas, hasta transformar el sistema en un sistema triangular. Dado que cada vez
que se aplica una cualquiera de estas transformaciones se obtiene un sistema equivalente al
anterior, el sistema triangular final será equivalente al sistema original, y la resolución del
sistema triangular por sustitución para atrás nos dará una solución de nuestro sistema original.
Ejemplo 7.1.3. Apliquemos el método de Gauss al sistema del Ejemplo 7.1.1.

3x1 + x2 − 2x3 = 2,
2x1 + x2 + 4x3 = 1, (7.12)
6x1 + 2x2 + 3x3 = 3,

En los primeros dos pasos el objetivo es modificar la segunda y la tercera ecuación de tal forma
que en ellas desaparezca la incógnita x1 . Podemos lograr eso mediante las transformaciones
tipo III siguientes:

2
E2 ←[ E2 − E1
3 (7.13)
6
E3 ←[ E3 − E1 .
3
114
Al ejecutar estos pasos, obtenemos el sistema equivalente

3x1 + x2 − 2x3 = 2,
1 16 1
x2 + x3 = − , (7.14)
3 3 3
7x3 = −1,

Observemos un par de cosas: Primero, para eliminar x1 de la ecuación Ei , en la transformación


Ei ←[ Ei + αE1 tomamos como α = − aa11 i1
. Esto lo hacemos tanto para E2 como para E3 , y
eso garantiza que la incógnita x1 quedará con coeficiente nulo, y por lo tanto no aparecerá
en esas ecuaciones modificadas. La segunda observación es que, en este ejemplo, al aplicar la
transformación que pretende eliminar la incógnita x1 de la tercera ecuación, también se eliminó
la incógnita x2 , y eso no es ningún problema, pero en general puede que no ocurra.
El sistema (7.14) ya es triangular, y podemos proceder a resolverlo, pero no es exactamente
el sistema triangular que aparece en el Ejemplo 7.1.1. Para llegar a ese sistema, podemos
aplicar la transformación tipo E2 ←[ 3E2 al sistema (7.14), con lo cual obtenemos

3x1 + x2 − 2x3 = 2,
x2 + 16x3 = −1, (7.15)
7x3 = −1.

Este sistema es el que hemos resuelto en el Ejemplo 7.1.1.


Notemos que al aplicar el método de Gauss, las incógnitas apenas juegan un papel de
“etiqueta de posición”. Todos los cálculos son realizados sobre los coeficientes y los términos
independientes. En particular, para lograr que una incógnita no aparezca, debemos lograr
anular su coeficiente. Esto, junto con la notación matricial que hemos observado antes, sugiere
que podemos implementar el método de Gauss operando exclusivamente sobre la matriz de
coeficientes y el vector de términos intependientes. Para ello, consideremos que Ax = b es la
forma matricial del sistema de ecuaciones lineales dado en (7.9). Definimos entonces la matriz
aumentada asociada al sistema como
 
a11 a12 · · · a1n | b1
 a21 a22 · · · a2n | b2 
 
[A|b] :=  .
 .. . . .. .. 
 .. . . . | .

an1 an2 · · · ann | bn

Entonces, las transformaciones elementales sobre las ecuaciones Ei del sistema dado, se pueden
interpretar como transformaciones elementales sobre las filas de la matriz [A|b]. Concretamente,
si denotamos por Fi la i-ésima fila de [A|b], las transformaciones elementales se pueden expresar
como
I) Fi ↔ Fj .

115
II) Fi ←[ αFi , con α ̸= 0.

III) Fi ←[ Fi + αFj .

El método de Gauss culminará entonces con una matriz aumentada de la forma [U |c], donde U
será triangular superior, y c será un nuevo vector de términos independientes, resultado de las
transformaciones realizadas sobre b. Esta matriz aumentada [U |c] corresponderá a un sistema
triangular, en la que la i-ésima ecuación se corresponde con la i-ésima fila de U y la incógnita
xj se corresponde con la j-ésima columna de U , y la sustitución para atrás podrá aplicarse par
determinar el valor de las incógnitas. En el ejemplo que hemos trabajado, tenemos

     
3 1 −2 | 2 3 1 −2 | 2 3 1 −2 | 2
[A|b] = 2 1 4 | 1 → 0 13 16 | − 13  → 0 1 16 | −1 = [U |c]
     
3
6 2 3 | 3 0 0 7 | −1 0 0 7 | −1

En la última matriz, cada fila corresponde a una ecuación del sistema triangular 7.15, y podemos
colocar de nuevo las incógnitas para despejarlas y obtener su valor mediante sustitución para
atrás.

Observación 47. Al aplicar la transformación Ei ←[ Ei + αEj , con i ̸= j sobre un sistema,


o equivalentemente Fi ←[ Fi + αFj sobre la matriz aumentada correspondiente, la constante α
aij
se denomiana multiplicador, y tiene la forma α = − ajj . Esto tiene el efecto de anular el
coeficiente en la posición ij, pues tendremos
aij
aij ←[ aij − ajj = 0.
ajj
a
ij
En la expresión α = − ajj , la entrada ajj se denomina pivot. Notemos que el pivot no puede
ser cero. Si encontramos una situación en la que la entrada pivotal es nula, debemos aplicar
un intercambio de filas apropiado para colocar en la posición pivotal una entrada no nula.

7.1.2.1 Cálculo de determinantes

Observamos que el método de Gauss puede pensarse como un procedimiento para transformar
una matriz dada a una matriz triangular. Si lo aplicamos sobre la matriz aumentada de un
sistema de ecuaciones lineales, nos permite obtener un sistema triangular equivalente, y ası́
resolverlo por sustitución para atrás. Por otro lado, la posibilidad de transformar una matriz
a una triangular, sugiere que podrı́amos también aplicar el método de Gauss para el cálculo
de determinantes. De forma simplificada la idea es, dada una matria n-cuadrada A, aplicarle
una sucesión de transformaciones elementales hasta transformarla en una matriz U , triangular.
En las propiedades de determinantes hemos visto que para la matriz U , su determinante es
simplemente el producto de elementos en su diagonal, y lo que necesitamos ahora es hacer un
seguimiento de las transformaciones que hemos realizado, a fin de determinar el determinante

116
de A partiendo del determinante de U y aplicando las propiedades de los determinantes cuando
la matriz pasa por ciertas transformaciones.
De forma más concreta, lo que tendremos es el siguiente esquema

A → U,

donde U es triangular superior, y la flecha representa la sucesión de transformaciones elemen-


tales aplicadas. Ahora, si la transformación es de tipo I (Fi ←[ αFi ) con α ̸= 0, entonces la
versión por filas de la propiedad c) de la Proposición 6.3.6 nos indica que el determinante queda
multiplicado por α. Por otro lado, siempre que la transformación sea tipo II) (Fi ↔ Fj ), la
versión por filas de la propiedad e en la Proposición 6.3.6 nos indica que el determinante cambia
de signo. Finalmente, si la transofrmación es tipo III (Fi ←[ Fi + αFj ), la versión por filas
de la propiedad f ) en la Proposición 6.3.6 nos dice que el determinante queda inalterado. Ası́,
podemos afirmar que
det(U ) = (−1)m α1 α2 · · · αr det(A),

donde m es la cantidad de veces que hemos aplicado transformación tipo I) y losαi corresponden
a los múltiplos empleados las veces que hayamos aplicado transformaciones tipo II). Por su
parte, sabemos que det(U ) es el producto de sus elementos diagonales. Ası́, tenemos

det(U )
det(A) = (−1)m .
α1 α2 · · · αr

Por lo general, no es necesario aplicar transformaciones tipo II), y entonces, sólo es necesario
llevar en cuenta la cantidad m de intercambios de filas realizados, y tendremos

det(A) = (−1)m det(U ).

Ejemplo 7.1.4. Calculemos el determinante de la siguiente matriz


 
2 3 1 −2
4 1 3 −5
A=
 

1 3 4 2
6 2 2 1

Primero anulamos todas las entradas debabo de a11 = 2. Para ello, realizamos, para i = 2, 3, 4
las transformaciones
ai1 ai1
Fi ←[ Fi − F2 = Fi − F2 .
a11 2

117
Obtenemos la matriz  
2 3 1 −2
0 −5 1 −1
A1 =  .
 
3 7
0 2 2
3
0 −7 −1 7
Para no sobrecargar la notación, a las entradas de A1 las seguiremos denominando aij . Ahora
el objetivo es anular todas las entradas por debajo de la entrada a22 = −5. Para ello, realizamos
para i = 3, 4 las transformaciones
ai2 ai2
Fi ←[ Fi − F1 = Fi + F1 .
a22 5

Obtenemos la siguiente matriz


 
2 3 1 −2
0 −5 1 −1
A2 =  .
 
19 27 
0 0 5 10

0 0 − 12
5
42
5

Finalmente, el objetivo es anular la entrada debajo del pivot a33 = 19


5
. Lo logramos realizando
la transformación
a43 12 5 12
F4 ←[ F4 − F3 = F4 + F3 = F4 + F3 ,
a33 5 19 19
lo cual nos da la matriz  
2 3 1 −2
0 −5 1 −1
U = .
 
19 27 
0 0 5 10

192
0 0 0 19

Ası́, dado que sólo aplicamos transformaciones tipo III) tenemos, para la matriz original A

19 192
det(A) = det(U ) = 2 · (−5) · · = −384.
5 19
Observación 48. El método de Sarrus para el cálculo de determinante no puede extenderse
para matrices n×n, con n > 3. Por su parte, tanto la expansión por cofactores de Laplace como
el método de Gauss funcionan para cualquier valor de n. Cuál de ellos conviene usar? Para
responder esta pregutna se puede considerar el “costo computacional” de cada método tomando
en cuenta la cantidad de operaciones productos/divisiones y sumas/restas que se deben realizar
para llegar al resultado. El método de Laplace tiene un costo computacional proporcional a
n!, en tanto que el método de Gauss tiene un costo computacional proporcional a n3 . Cómo
se comparan estos costos? Para n ≤ 5, tenemos n3 ≥ n!, concretamente n = 5 implica
53 = 125 > 120 = 5!. Pero a partir de ahı́, n3 es insignificante en comparación con n!. Para
n = 6, tenemos 63 = 216 < 720 = 6!. Para n = 10, tenemos 103 = 1.000 << 3.628.800 = 10!.

118
De momento, para ejercicios manuales no trabajaremos con matrices n × n para n más allá
de 5, ası́ que los métodos de Laplace y Gauss pueden considerarse emparejados, y cuando la
matriz tiene muchos ceros en filas o columnas, el método de Laplace puede dar una respuesta
más rápida. En aplicaciones de ingenierı́a, sin embargo, frecuentemente aparecen matrices
n × n con n en el orden de miles. Para estos casos, el método de Laplace es absolutamente
impracticable, ni con toda la potencia computacional del mundo puesta a trabajar en simultáneo.
Incluso el método de Gauss puede llegar a ser computacionalmente costoso, y por lo tanto se
estudian otros métodos más sofisticados que ofrezcan una mayor eficiencia.

7.1.3 Método de Gauss-Jordan


Dado un sistema lineal Ax = b, siendo A la matriz de coeficientes n × n, el método de Gauss
se resume en el siguiente esquema
[A|b] → [U |c],

siendo U una matriz n × n triangular superior, que se obtiene anulando progresivamente las
entradas por debajo de las posiciones pivotales. Llegado a este punto, podrı́amos seguir trans-
formado el sistema mediante la aplicación de las transformaciones elementales, de tal forma a
anular también las entradas por encima de las posiciones pivotales, con lo cual tendrı́amos un
esquema como el siguiente
[A|b] → [U |c] → [D|d],

donde D es una matriz n × n diagonal. Multiplicando cada fila de [D|d] por el inverso de la
entrada diagonal (transformación tipo II), llegamos finalmente a un esquema como el siguiente

[A|b] → [U |c] → [D|d] → [In |x],

siendo In la matriz identidad n × n. El sistema de ecuaciones correspondiente a [In |x] (que es


equivalente a la original) es tal que en cada ecuación i solo aparece la incógnita xi , con lo cual
el vector x es la solución del sistema Ax = b.
El proceso completo de reducir [A|b] a la forma [In |overlinex] se conoce como el método
de Gauss-Jordan. Ofrece una alternativa a la sustitución para atrás, para obtener la solución
del sistema Ax = b. Pero además, ofrece una forma sistemática de determinar la inversa de
una matriz n-cuadrada invertible, como veremos a continuación.

7.1.3.1 Aplicación a la inversión matricial

Recordemos que dada una matriz n-cuadrada A, su inversa, denotada A−1 , es la única matriz
que satisface la ecuación
A · X = In .

Para explicar cómo se usa el método de Gauss-Jordan para hallar A−1 denotaremos las columnas
de In como ej , que corresponde a una matriz n × 1 que tiene 0 en todas las entradas, excepto

119
en la j-ésima, que es 1. Ası́, podemos escribir In = [e1 |e2 | · · · |en ]. Reescribamos la ecuación
matricial A · X = In como

[AX∗1 |AX∗2 | · · · |AX∗n ] = [e1 |e2 | · · · |en ], (7.16)

donde X∗j es la j-ésima columna de X y AX∗j es la j-ésima columna de AX. Podemos


ver entonces que determinar A−1 se reduce a resolver las n-ecuaciones lineales AX∗j = ej ,
con j = 1, 2, . . . , n. Podemos trabajar sobre estos n sistemas lineales de forma simultánea,
colocándolos en una matriz extendida de la forma

[A|e1 |e2 | · · · |en ] = [A|In ].

Recordemos entonces que si aplicamos Gauss-Jordan a la matriz extendida [A|ej ], obtendremos


[In |xj ], siendo xj la solución del sistema AX∗j = ej , es decir, xj será la j-ésima columna de A−1
Ası́, si aplicamos Gauss-Jordan a la matriz extendida

[A|In ] = [A|e1 |e2 | · · · |en ],

obtendremos
[In |x1 |x2 | · · · |xn ] = [I|A−1 ].

Resumiendo, tenemos
[A|In ] → [In |A−1 ],

donde la flecha representa el proceso de Gauss-Jordan.

120
Bibliografı́a

Textos básicos
[2] Samuel Fuenlabrada and Irma Fuenlabrada. Aritmética y Álgebra. McGraw-Hill, 2013.
[3] José Giovanni et al. Matemática Fundamental, Vol. FTDl, 1998.
[6] Seymour Lipschutz. Teorı́a de Conjuntos y Temas Afines. McGraw-Hill, 1991.
[9] Dennis Zill and Jacqueline Dewar. Álgebra, Trigonometrı́a y Geometrı́a Analı́tica. McGraw-
Hill, 2012.
[10] Dennis Zill and Jacqueline Dewar. Precálculo. McGraw-Hill, 2012.

Textos intermediarios
[1] Frank Ayres Jr. Matrices. McGraw-Hill, 1999.
[4] Paul Halmos. Naive Set Theory. Springer, 1960.
[5] Seymour Lipschutz. Matemáticas Finitas. McGraw-Hill, 1972.
[7] Seymour Lipschutz and Marc Lipson. Matemáticas Discretas. McGraw-Hill, 2009.
[8] Murray Spiegel et al. Variable Compleja. McGraw-Hill, 1992.

121

También podría gustarte