History: Digital Electronics, Digital Technology or Digital (Electronic) Circuits Are Electronics That
History: Digital Electronics, Digital Technology or Digital (Electronic) Circuits Are Electronics That
Contents
1History
o 1.1Digital revolution and digital age
2Properties
3Construction
4Design
o 4.1Representation
o 4.2Synchronous systems
o 4.3Asynchronous systems
o 4.4Register transfer systems
o 4.5Computer design
o 4.6Computer architecture
o 4.7Design issues in digital circuits
o 4.8Automated design tools
o 4.9Design for testability
o 4.10Trade-offs
4.10.1Cost
4.10.2Reliability
4.10.3Fanout
4.10.4Speed
5Logic families
6Recent developments
7See also
8Notes
9References
10Further reading
11External links
History[edit]
The binary number system was refined by Gottfried Wilhelm Leibniz (published in 1705)
and he also established that by using the binary system, the principles of arithmetic and
logic could be joined. Digital logic as we know it was the brain-child of George Boole in the
mid 19th century. In an 1886 letter, Charles Sanders Peirce described how logical
operations could be carried out by electrical switching circuits.[2] Eventually, vacuum
tubes replaced relays for logic operations. Lee De Forest's modification, in 1907, of
the Fleming valve can be used as an AND gate. Ludwig Wittgenstein introduced a version
of the 16-row truth table as proposition 5.101 of Tractatus Logico-
Philosophicus (1921). Walther Bothe, inventor of the coincidence circuit, shared the
1954 Nobel Prize in physics, for the first modern electronic AND gate in 1924.
Mechanical analog computers started appearing in the first century and were later used in
the medieval era for astronomical calculations. In World War II, mechanical analog
computers were used for specialized military applications such as calculating torpedo
aiming. During this time the first electronic digital computers were developed. Originally
they were the size of a large room, consuming as much power as several hundred
modern personal computers (PCs).[3]
The Z3 was an electromechanical computer designed by Konrad Zuse. Finished in 1941, it
was the world's first working programmable, fully automatic digital computer.[4] Its operation
was facilitated by the invention of the vacuum tube in 1904 by John Ambrose Fleming.
At the same time that digital calculation replaced analog, purely electronic circuit elements
soon replaced their mechanical and electromechanical equivalents. John
Bardeen and Walter Brattain invented the point-contact transistor at Bell Labs in 1947,
followed by William Shockley inventing the bipolar junction transistor at Bell Labs in 1948.[5]
[6]
Properties[edit]
An advantage of digital circuits when compared to analog circuits is that signals
represented digitally can be transmitted without degradation caused by noise.[39] For
example, a continuous audio signal transmitted as a sequence of 1s and 0s, can be
reconstructed without error, provided the noise picked up in transmission is not enough to
prevent identification of the 1s and 0s.
In a digital system, a more precise representation of a signal can be obtained by using
more binary digits to represent it. While this requires more digital circuits to process the
signals, each digit is handled by the same kind of hardware, resulting in an
easily scalable system. In an analog system, additional resolution requires fundamental
improvements in the linearity and noise characteristics of each step of the signal chain.
With computer-controlled digital systems, new functions to be added through software
revision and no hardware changes. Often this can be done outside of the factory by
updating the product's software. So, the product's design errors can be corrected after the
product is in a customer's hands.
Information storage can be easier in digital systems than in analog ones. The noise
immunity of digital systems permits data to be stored and retrieved without degradation. In
an analog system, noise from aging and wear degrade the information stored. In a digital
system, as long as the total noise is below a certain level, the information can be recovered
perfectly. Even when more significant noise is present, the use of redundancy permits the
recovery of the original data provided too many errors do not occur.
In some cases, digital circuits use more energy than analog circuits to accomplish the same
tasks, thus producing more heat which increases the complexity of the circuits such as the
inclusion of heat sinks. In portable or battery-powered systems this can limit use of digital
systems. For example, battery-powered cellular telephones often use a low-power analog
front-end to amplify and tune in the radio signals from the base station. However, a base
station has grid power and can use power-hungry, but very flexible software radios. Such
base stations can be easily reprogrammed to process the signals used in new cellular
standards.
Many useful digital systems must translate from continuous analog signals to discrete
digital signals. This causes quantization errors. Quantization error can be reduced if the
system stores enough digital data to represent the signal to the desired degree of fidelity.
The Nyquist–Shannon sampling theorem provides an important guideline as to how much
digital data is needed to accurately portray a given analog signal.
In some systems, if a single piece of digital data is lost or misinterpreted, the meaning of
large blocks of related data can completely change. For example, a single-bit error in audio
data stored directly as linear pulse code modulation causes, at worst, a single click.
Instead, many people use audio compression to save storage space and download time,
even though a single bit error may cause a larger disruption.
Because of the cliff effect, it can be difficult for users to tell if a particular system is right on
the edge of failure, or if it can tolerate much more noise before failing. Digital fragility can
be reduced by designing a digital system for robustness. For example, a parity bit or
other error management method can be inserted into the signal path. These schemes help
the system detect errors, and then either correct the errors, or request retransmission of the
data.
Construction[edit]
A digital circuit is typically constructed from small electronic circuits called logic gates that
can be used to create combinational logic. Each logic gate is designed to perform a
function of boolean logic when acting on logic signals. A logic gate is generally created
from one or more electrically controlled switches, usually transistors but thermionic
valves have seen historic use. The output of a logic gate can, in turn, control or feed into
more logic gates.
Another form of digital circuit is constructed from lookup tables, (many sold as
"programmable logic devices", though other kinds of PLDs exist). Lookup tables can
perform the same functions as machines based on logic gates, but can be easily
reprogrammed without changing the wiring. This means that a designer can often repair
design errors without changing the arrangement of wires. Therefore, in small volume
products, programmable logic devices are often the preferred solution. They are usually
designed by engineers using electronic design automation software.
Integrated circuits consist of multiple transistors on one silicon chip, and are the least
expensive way to make large number of interconnected logic gates. Integrated circuits are
usually interconnected on a printed circuit board which is a board which holds electrical
components, and connects them together with copper traces.
Design[edit]
Engineers use many methods to minimize logic redundancy in order to reduce the circuit
complexity. Reduced complexity reduces component count and potential errors and
therefore typically reduces cost. Logic redundancy can be removed by several well-known
techniques, such as binary decision diagrams, Boolean algebra, Karnaugh maps,
the Quine–McCluskey algorithm, and the heuristic computer method. These operations are
typically performed within a computer-aided design system.
Embedded systems with microcontrollers and programmable logic controllers are often
used to implement digital logic for complex systems that don't require optimal performance.
These systems are usually programmed by software engineers or by electricians,
using ladder logic.
Representation[edit]
Representations are crucial to an engineer's design of digital circuits. To choose
representations, engineers consider types of digital systems.
The classical way to represent a digital circuit is with an equivalent set of logic gates. Each
logic symbol is represented by a different shape. The actual set of shapes was introduced
in 1984 under IEEE/ANSI standard 91-1984 and is now in common use by integrated circuit
manufacturers.[40] Another way is to construct an equivalent system of electronic switches
(usually transistors). This can be represented as a truth table.
Most digital systems divide into combinational and sequential systems. A combinational
system always presents the same output when given the same inputs. A sequential system
is a combinational system with some of the outputs fed back as inputs. This makes the
digital machine perform a sequence of operations. The simplest sequential system is
probably a flip flop, a mechanism that represents a binary digit or "bit". Sequential systems
are often designed as state machines. In this way, engineers can design a system's gross
behavior, and even test it in a simulation, without considering all the details of the logic
functions.
Sequential systems divide into two further subcategories. "Synchronous" sequential
systems change state all at once, when a "clock" signal changes state. "Asynchronous"
sequential systems propagate changes whenever inputs change. Synchronous sequential
systems are made of well-characterized asynchronous circuits such as flip-flops, that
change only when the clock changes, and which have carefully designed timing margins.
For logic simulation, digital circuit representations have digital file formats that can be
processed by computer programs.
Synchronous systems[edit]
A 4-bit ring counter using D-type flip flops is an example of synchronous logic. Each device is
connected to the clock signal, and update together.
Asynchronous systems[edit]
As of 2014, most digital logic is synchronous because it is easier to create and verify a
synchronous design. However, asynchronous logic has the advantage of its speed not
being constrained by an arbitrary clock; instead, it runs at the maximum speed of its logic
gates.[a] Building an asynchronous system using faster parts makes the circuit faster.
Nevertherless, most systems need circuits that allow external unsynchronized signals to
enter synchronous logic circuits. These are inherently asynchronous in their design and
must be analyzed as such. Examples of widely used asynchronous circuits include
synchronizer flip-flops, switch debouncers and arbiters.
Asynchronous logic components can be hard to design because all possible states, in all
possible timings must be considered. The usual method is to construct a table of the
minimum and maximum time that each such state can exist, and then adjust the circuit to
minimize the number of such states. Then the designer must force the circuit to periodically
wait for all of its parts to enter a compatible state (this is called "self-resynchronization").
Without such careful design, it is easy to accidentally produce asynchronous logic that is
"unstable," that is, real electronics will have unpredictable results because of the
cumulative delays caused by small variations in the values of the electronic components.
Example of a simple circuit with a toggling output. The inverter forms the combinational logic in this
circuit, and the register holds the state.
Many digital systems are data flow machines. These are usually designed using
synchronous register transfer logic, using hardware description languages such
as VHDL or Verilog.
In register transfer logic, binary numbers are stored in groups of flip flops called registers.
The outputs of each register are a bundle of wires called a "bus" that carries that number to
other calculations. A calculation is simply a piece of combinational logic. Each calculation
also has an output bus, and these may be connected to the inputs of several registers.
Sometimes a register will have a multiplexer on its input, so that it can store a number from
any one of several buses. Alternatively, the outputs of several items may be connected to a
bus through buffers that can turn off the output of all of the devices except one. A
sequential state machine controls when each register accepts new data from its input.
Asynchronous register-transfer systems (such as computers) have a general solution. In
the 1980s, some researchers discovered that almost all synchronous register-transfer
machines could be converted to asynchronous designs by using first-in-first-out
synchronization logic. In this scheme, the digital machine is characterized as a set of data
flows. In each step of the flow, an asynchronous "synchronization circuit" determines when
the outputs of that step are valid, and presents a signal that says, "grab the data" to the
stages that use that stage's inputs. It turns out that just a few relatively simple
synchronization circuits are needed.
Computer design[edit]
Intel 80486DX2 microprocessor
álculo tensorial
Ir a la navegaciónIr a la búsqueda
Índice
1Historia
2Características y uso
o 2.1Uso de tensores
o 2.2Conceptos básicos
o 2.4Enfoque moderno
3Definición de tensor
o 3.1Definición clásica
5Notación y nomenclatura
o 5.1Covarianza y contravarianza
6Álgebra de tensores
7Operaciones con tensores
o 7.3Contracción
o 7.4Producto Interno
o 7.5Dual de Hodge
o 8.1Pushforward y Pullback
o 8.2Tensor métrico
o 8.3Derivada covariante
o 8.4Derivada de Lie
o 8.5Derivación exterior
9Véase también
10Referencias
o 10.1Bibliografía
11Enlaces externos
Historia[editar]
La palabra "tensor" se utiliza a menudo como abreviatura de campo tensorial,
que es un valor tensorial definido en cada punto en una variedad. El primero en
utilizar esta palabra fue William Rowan Hamilton en 1846, empleándola para lo
que actualmente se conoce como módulo y fue Woldemar Voigt en 1899 quien
la empleó en su acepción actual. La palabra tensor proviene del latín tensus,
participio pasado de tendere 'estirar, extender'. El nombre se extendió porque
la teoría de la elasticidad fue una de las primeras aplicaciones físicas donde se
usaron tensores.
Gregorio Ricci-Curbastro en 1890 desarrolló la notación actual con el nombre
de geometría diferencial absoluta, y se popularizó con la publicación de Cálculo
Diferencial Absoluto de Tullio Levi-Civita en 1900. Con la introducción de la
teoría de la relatividad general por parte de Albert Einstein alrededor de 1915
se encontró su aplicación más pragmática. La Relatividad General es
netamente tensorial. Einstein había aprendido del mismo Levi-Civita el uso de
tensores con gran dificultad.
Características y uso[editar]
Las cantidades geométricas y físicas pueden ser categorizadas considerando
los grados de libertad inherentes a su descripción. Las cantidades escalares
son las que se pueden representar por un solo número, por ejemplo la masa.
Hay también cantidades tipo vector, por ejemplo fuerza, que requieren una lista
de números para su descripción. Finalmente, las cantidades tales como formas
cuadráticas requieren naturalmente una matriz con índices múltiples para su
representación. Estas últimas cantidades se pueden concebir solamente como
tensores.
Realmente, la noción tensorial es absolutamente general. Los escalares y los
vectores son casos particulares de tensores. La propiedad que distingue un
escalar de un vector, y distingue ambos de una cantidad tensorial más general
es el número de índices en la matriz de la representación. Este número se
llama rango de un tensor. Así, los escalares son los tensores de rango cero
(sin índices), y los vectores son los tensores de rango uno.
Uso de tensores[editar]
No todas las relaciones en la naturaleza son lineales, pero la mayoría
es diferenciable y así se pueden aproximar localmente con sumas
de funciones multilineales. Así la mayoría de las magnitudes en física se
pueden expresar como tensores.
Un ejemplo simple es la descripción de una fuerza aplicada al movimiento de
una nave en el agua. La fuerza es un vector, y la nave responderá con una
aceleración, que es también un vector. La aceleración en general no estará en
la misma dirección que la fuerza, debido a la forma particular del cuerpo de la
nave. Sin embargo, resulta que la relación entre la fuerza y la aceleración
es lineal. Tal relación es descrita por un tensor del tipo (1, 1), es decir, que
transforma un vector en otro vector. El tensor se puede representar como
una matriz que cuando es multiplicada por un vector, dé lugar a otro vector. Así
como los números que representan un vector cambiarán si uno cambia el
conjunto de coordenadas, los números en la matriz que representa el tensor
también cambiarán cuando se cambie el conjunto de coordenadas.
En la ingeniería, las tensiones en el interior de un sólido
rígido o líquido también son descritas por un tensor. Si se selecciona un
elemento superficial particular en el material, el material en un lado de la
superficie aplicará una fuerza en el otro lado. En general, esta fuerza no
será ortogonal a la superficie, sino que dependerá de la orientación de la
superficie de una manera lineal. Esto es descrito por un tensor del tipo (2, 0), o
más exactamente por un campo tensorial del tipo (2, 0) puesto que
las tensiones pueden cambiar punto a punto.
Algunos ejemplos bien conocidos de tensores en geometría son las formas
cuadráticas, y el tensor de curvatura. Algunos ejemplos de tensores físicos son
el tensor de energía-momento, el tensor de polarización y el tensor dieléctrico.
Conceptos básicos[editar]
En un sentido práctico un tensor es un objeto matemático representado por un
cierto conjunto de componentes. Para definir un tensor es necesario partir de
un espacio físico o variedad diferenciable que define cuál es el espacio
vectorial base V sobre el que se construirán tensores de diferente tipo y orden.
En mecánica clásica, por ejemplo, el espacio es , aunque en la teoría de la
relatividad especial el espacio base es isomorfo a y en la teoría general de la
relatividad es el espacio tangente a una variedad lorentziana de cuatro
dimensiones. En matemáticas lo más usual es construir la teoría sobre
una variedad riemanniana o variedad pseudoriemanniana n-dimensional.
Tratamiento clásico de los tensores[editar]
El enfoque clásico visualiza los tensores como "matrices" de orden superior
que son generalizaciones n-dimensionales de los escalares, vectores de 1
dimensión y matrices de 2 dimensiones. En este enfoque los números reales
que aparecen en dichas "matrices" son los componentes del tensor en una
base concreta. Si bien para los casos prácticos este modo de representación
puede ser muy intuitivo dificulta la manipulación formal para otros fines menos
prácticos.
Los "componentes" tensoriales son los índices del arreglo. Esta idea puede ser
generalizada aún más a los campos tensoriales, donde los elementos del
tensor son funciones, o incluso diferenciales. La teoría del campo tensorial se
puede ver, grosso modo, como otra extensión de la idea del jacobiano.
Enfoque moderno[editar]
El enfoque moderno visualiza los tensores inicialmente como objetos
abstractos, construidos sobre espacios vectoriales abstractos, en los que se
define un producto tensorial que permite construir estructuras típicas
del álgebra multilineal. Sus propiedades bien conocidas se pueden derivar de
sus definiciones, como funciones lineales o incluso más generales; y las reglas
para las manipulaciones de tensores se presentan como extensión del álgebra
lineal al álgebra multilineal.
Este tratamiento ha sustituido en gran parte el tratamiento basado en
componentes para el estudio avanzado, a la manera en que el tratamiento más
moderno de los vectores, libre de componentes, sustituye el tratamiento
basado en componentes tradicional aunque este último se haya utilizado para
proporcionar una motivación elemental para el concepto de un vector. Se
podría decir que el lema es 'tensores son elementos de un cierto espacio
tensorial'.
El enfoque moderno está más estrechamente asociado al tratamiento que los
matemáticos han hecho del cálculo tensorial en el que las notaciones
generalmente representan el objeto tensorial y secundariamente los
componentes. Esto contrasta con el tratamiento clásico de los tensores en las
ciencias físicas que suele representar los tensores mediante sus componentes
y enfatiza mucho las propiedades asociadas a la transformación de
coordenadas al pasar de un sistema de referencia a otro, o cuando se cambian
las coordenadas.
Definición de tensor[editar]
Hay varias maneras de definir un tensor, que resultan en enfoques
equivalentes:
la manera clásica, forma usual en física de definir los tensores, en términos de
objetos cuyos componentes se transforman bajo cambios de coordenadas según
ciertas reglas, introduciendo la idea de
transformaciones covariantes o contravariantes.
la manera usual de la matemática, que implica definir ciertos espacios
vectoriales definidos a partir de un espacio vectorial dado, sin fijar cualesquiera
conjuntos de coordenadas hasta que las bases se introduzcan por necesidad.
Existen dos definiciones de este tipo:
o La de tensores como aplicaciones multilineales, que nos obliga a usar el
dual de un espacio vectorial.
o La que usa una operación definida axiomáticamente llamada producto
tensorial de espacios vectoriales.
Definición clásica[editar]
Los físicos especialmente en tratamientos informales de los tensores,
consideran que un tensor es simplemente una magnitud física multi-índice dada
por un conjunto de números reales o "componentes" del tensor que se
transforman de "manera adecuada". Es decir, si en un determinado sistema de
referencia una magnitud tensorial está dada por un conjunto de
componentes al cambiar a un sistema de referencia diferente tendrá
componentes con valores numéricos diferentes siendo la relación entre los
componentes de la magnitud en uno y otro sistema de referencia la siguiente:
donde en la última expresión se ha usado el convenio de sumación de
Einstein y además:
es la matriz del cambio de base de coordenadas
es la matriz del cambio de base inverso, que es la matriz traspuesta de la
anterior.
Las magnitudes escalares de la física en general son tensores de orden
cero, y varios de los tensores físicos importantes (tensor de
inercia, tensor de tensiones, etc.) son tensores de segundo orden.
Como aplicación multilineal[editar]
Dado un espacio vectorial de dimensión sobre un cuerpo , recordemos
que su espacio dual es el conjunto de todas las aplicaciones lineales .
El espacio dual es un espacio vectorial de la misma dimensión que .
Nos referiremos normalmente a los elementos de y
de como vectores y covectores, respectivamente.
Un tensor es una aplicación multilineal, es decir, una aplicación lineal
en cada uno de sus argumentos, de la forma:
De este modo, un tensor asocia cada covectores y vectores , un
escalar
Llamamos tipo del tensor al par .
Usando producto tensorial de espacios
vectoriales[editar]
En el enfoque más matemático del cálculo tensorial se considera
un espacio vectorial V y se considera su espacio dual V*. Si es
una base del espacio vectorial V y la correspondiente base dual
de V*, se construye el espacio vectorial producto de r copias
de V y s copias de V*, es decir, o producto tensorial de espacios
vectoriales. Un tensor es un elemento de dicho espacio vectorial:
Las propiedades de transformación de los tensores se siguen de
las propiedades de transformación de los vectores de la base de
manera trivial.
Notación y nomenclatura[editar]
Covarianza y contravarianza[editar]
Artículo principal: Covariancia y contravariancia