13 mayo, 2008

WINDOWS VISTA

Windows Vista Ultimate Requisitos recomendados del sistema :

Procesador de 32 bits (x86) o de 64 bits (x64) a 1 GHz
1 GB de memoria del sistema
40 GB de disco duro con al menos 15 GB de espacio disponible
Compatibilidad con gráficos DirectX 9 con lo siguiente:
Controlador WDDM
128 MB de memoria de gráficos (mínimo)
Pixel Shader 2.0 en hardware
32 bits por píxel
Unidad de DVD-ROM
Salida de audio
Acceso a Internet (si procede, con tarifa aplicable)
Otros requisitos para el uso de determinadas características
Tarjeta sintonizadora de TV necesaria para la funcionalidad de TV (control remoto compatible opcional)
La Tecnología táctil y Tablet PC de Windows se usa con un dispositivo Tablet PC o una pantalla táctil
El Cifrado de unidad BitLocker de Windows se usa con una unidad flash USB y un sistema con un chip TPM 1.2
Los requisitos y la funcionalidad del producto pueden variar según la configuración del sistema.

Windows Vista Ultimate

Requisitos mínimos admitidos

Algunas características del producto no se encuentran disponibles con los requisitos mínimos admitidos.
Procesador a 800 MHz y 512 MB de memoria del sistema
20 GB de disco duro con al menos 15 GB de espacio disponible
Compatibilidad con gráficos Super VGA
Unidad de CD-ROM

07 noviembre, 2006

octava tarea

NORMAS DE REDACION DE TEXTOS ISO

Presentará la siguiente estructura:

I: Corresponde al título (en letra más grande y negrita), debajo el nombre del autor principal, seguido de los coautores; en otra línea figurará el nombre del lugar de trabajo, ciudad y país.

II: Corresponde al resumen en español (máximo de 200 palabras), seguido del título y resumen en inglés, igualmente de 200 palabras. Y palabras clave en ambos idiomas.

III : Corresponde al texto completo de la aportación técnico-científica, incluyendo los capítulos de introducción, desarrollo experimental, conclusiones y bibliografía.
Además, se tendrán en cuenta las siguientes directrices:


Hojas tamaño DIN A4.

Márgenes izquierdo y derecho de 2,5 cm cada uno.


Márgenes superior e inferior de 3,0 cm cada uno.

Letras, preferentemente tipo "Elite" (12 caracteres por pulgada) o "Pica" (10 caracteres por pulgada), con 75-63 caracteres por línea y manteniendo 1? espacios entre líneas.


En la portada (o primera hoja) debe figurar el título del trabajo en letras mayúsculas.

Debajo el nombre del autor y coautores. Debajo el lugar de trabajo (empresa, centro, instituto, etc.), ciudad y país.


En la segunda hoja se darán el resumen en español (200 palabras como máximo) junta a las palabras clave. Debajo le seguirá el título y resumen en inglés, también con un máximo de 200 palabras, y las correspondientes palabras clave en inglés.

En caso de Congresos Internacionales se podrán añadir otros resúmenes correspondientes a los restantes idiomas oficiales. Sin embargo, para Congresos Nacionales y para la publicación en el Boletín Técnico de la AQEIC se usarán sólo el inglés y español.


Le seguirá el texto completo (máximo 19 páginas), estructurado en introducción, parte experimental, resultados, conclusiones y bibliografía.

Las referencias o citas bibliográficas deberán codificarse por orden numérico y entre paréntesis según su aparición en el texto, incluyéndose al final del mismo y por el mismo orden, la descodificación de acuerdo con la normativa internacional,


Se solicita que todo el texto completo, para ser presentado a un Congreso o bien para publicarlo en el Boletín Técnico, se envíe en un diskette con todo el contenido: Estructurar en tres ficheros:

Gráficos: utilizar formato PowerPoint o bien ficheros .gif, .jpg o .tif

Fotografías: enviar originales o escanearlas en formato .gif, .jpg o .tif

En este caso, además se deberá enviar una copia impresa del mismo para comprobar su buena reproducción por parte de AQEIC.

La longitud máxima del trabajo técnico-científico no será superior a las 20 páginas, incluyendo gráficos y tablas (tamaño DIN A4). En casos excepcionales, la Comisión Científica podrá ampliar estos límites, siempre que los considere de interés.

En el texto de la aportación técnico-científica no deberán figurar nombres ni marcas comerciales, en su lugar se especificarán los correspondientes nombres químicos genéricos; por ejemplo: aceite sulfatado sintético, oxietilenado, colorante tipo "X" con el nº del color index, etc.; seguido entre paréntesis de un código en letras, para diferenciarlo de las citas bibliográficas. Al final del trabajo y después del capítulo de la bibliografía, aparecerá otro apartado en el cual se podrán poner los correspondientes nombres comerciales, según los códigos empleados.

Todo texto, ya sea como presentación visual u oral en un Congreso organizado por la AQEIC o bien, como publicación en el Boletín Técnico de la AQEIC y que haya sido aceptado por la Comisión Científica o Consejo de Redacción respectivamente, es propiedad de la AQEIC y ésta adquiere los derechos de copia o impresión; no obstante, los autores podrán publicar el trabajo en otras revistas previa notificación.

06 noviembre, 2006

LOS METODOS CUANTITATIVO Y CUALITATIVO EN LA INVESTIGACIÓN CIENTÍFICA


INVESTIGACION CUALITATIVO

El método cualitativo es el más comprensivo, y por ello puede aplicarse a análisis globales de casos específicos, en tanto que el método cuantitativo es más parcial pues estudia aspectos particulares o generaliza pero desde una sola perspectiva.

Una primera característica de estos métodos se manifiesta en su estrategia para tratar de conocer los hechos, procesos, estructuras y personas en su totalidad, y no a través de la medición de algunos de sus elementos. La misma estrategia indica ya el empleo de procedimientos que dan un carácter único a las observaciones.

Una tercera característica estratégica importante para este trabajo , se refiere al papel del investigador en su trato -intensivo- con las personas involucradas en el proceso de investigación, para entenderlas.

La investigación cualitativa evita la cuantificación.

La investigación cualitativa trata de identificar la naturaleza profunda de las realidades, su sistema de relaciones, su estructura dinámica.


INVESTIGACION CUANTITATIVO

El modelo cuantitativo generaliza y presupone, para alcanzar mayor validez, un conocimiento cualitativo y teórico bien desarrollado, condición que muchas veces queda fuera de consideración en la práctica de la investigación cuantitativa.

Los estudios cuantitativos siguen un patrón predecible y estructurado.

El método deductivo está asociado frecuentemente con la investigación cuantitativa.

La investigación cuantitativa debe ser lo más "objetiva" posible, sin ser afectada por las tendencias del investigador u otras personas .La meta principal de los estudios cuantitativos es la construcción y demostración de teorías.

Otra característica predominante de los métodos cuantitativos es la selección subjetiva e ínter subjetiva de indicadores (a través de conceptos y variables) de ciertos elementos de procesos, hechos, estructuras y personas.

metodos de imvestigacion

EL MÉTODO INDUCTIVO:


El método inductivo es pues, la observación del mundo exterior y los fenómenos que en él se llevan a cabo, con el fin de formular reglas, leyes y teorías que expliquen dichos fenómenos y nos permitan preverlos, tanto ésos como similares.

Un fenómeno puede ser cualquier cosa que cambia, aquello por lo que se ven afectados los sentidos, y cualquier acontecimiento que produzca una consecuencia.Son ejemplos de fenómenos:


EL MÉTODO DEDUCTIVO:



La forma de proceder del método deductivo es totalmente inversa a la del método inductivo:Dadas unas verdades tenidas por irrefutables y aceptables, se “deducen” (de ahí del nombre de “método deductivo”), otras verdades mediante el uso correcto de la razón, la intuición y, (no esporádicamente), la imaginación.

Las proposiciones aceptadas o admitidas se llaman postulados, axiomas, o conceptos primarios.Estudiando dichas proposiciones tomadas como “buenas” o “veraces”, se pueden llegar a comprender sus propiedades.

VARIOS EJEMPLOS DE LOS PRINCIPALES METODOS INDUCTIVO Y DEDUCTIVO
.

Método Exegético:

Se dice del método interpretativo de las leyes que se apoya en el sentido de las palabras de estas.

El método de las glosas o exégesis (o método gramatical) fue superado en algunas de sus reglas, especialmente en la relativa a la sujeción a las palabras y los párrafos empleados en su redacción.
La interpretación debe consistir en " la reconstrucción del pensamiento contenido en la ley" dicha reconstrucción se refiere al pensamiento del legislador que dicto la ley; en consecuencia, el interprete debe "colocarse en el punto de vista del legislador reproducir artificialmente sus operaciones y reconstruir la ley en su inteligencia. (M.I)


Método Histórico:

Está vinculado al conocimiento de las distintas etapas de los objetos en su sucesión cronológica, para conocer la evolucion y desarrollo del objeto o fenómeno de investigación se hace necesario revelar su historia, las etapas principales de su desenvolvimiento y las conexiones históricas fundamentales. Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los diferentes períodos de la historia. Los métodos lógicos se basan en el estudio histórico poniendo de manifiesto la lógica interna de desarrollo, de su teoría y halla el conocimiento más profundo de esta, de su esencia. La estructura lógica del objeto implica su modelación.(M.D)

Método Heurístico:

Consiste en que el profesor incite al alumno a comprender antes de fijar, implicando justificaciones o fundamentaciones lógicas y teóricas que pueden ser presentadas por el profesor o investigadas por el alumno.Que sirve como una ayuda en el aprendizaje, para descubrir o resolver problemas mediante la experimentación y los métodos de ensayo y error. Relacionado con técnicas exploratorias usadas en la resolución de problemas que utilizan las técnicas de educación individual. (Del griego heurístico = yo encuentro.
Entonces concluyendo este eje comprende el desarrollo de habilidades, procedimientos y procesos que nos ofrecen una probabilidad razonable para solucionar un problema. Está orientado a la generación de conocimientos, técnicas, recursos y acciones creativas e innovadoras sistematizadas, proyectadas hacia la aportación de los avances científicos, tecnológicos y artísticos, para hacer frente a las cambiantes demandas del entorno laboral, social y cultural. De esta manera se ejerce una praxis transformadora que satisface dichas demandas a través del desarrollo de la capacidad del trabajo individual y en grupo con responsabilidad social, así como la construcción de elementos de investigación aplicada y de la producción artística. El estudiante aprovecha el conocimiento aprendido para resolver problemas y aplicar estrategias específicas).(M.I)


Método Descriptivo:

Es una técnica para recoger o analizar datos, pero independientemente de las consideraciones semánticas que puedan existir sobre el termino, no hay duda de que se trata de una de las modalidades mas populares y utilizadas por los investigadores. Se plantea que la investigación por antonomasia, es fundamentalmente descriptiva, ya que ninguno de los tipos o procedimientos investigativos escapa al espíritu y a la definición generalizada del concepto. Este método trabaja con escrotos, gráficos, símbolos, signos y señales empleadas usualmente para comunicar, transmitir conocimiento o información.

A través del método descriptivo se identifica y se conoce la naturaleza de una situación en la medida en que ella existe durante el tiempo del estudio; por consiguiente no hay administración o control manipulativo o un tratamiento específico. Su propósito básico es: Describir cómo se presenta y qué existe con respecto a las variables o condiciones en una situación.(M.D)


Método Socrático:

En este método el tutor no enseña un concepto nuevo a través de su exposición directa, más bien conduce al alumno, a través de preguntas sucesivas a:
Este método de preguntas y respuestas permite individualizar la interacción Alumno - Sistema, es decir permite individualizar a las características y necesidades del alumno el proceso de enseñanza. (M.I)

Método Explicativo:

Método Experimental:Permite descartar y explorar los factores variables que intervienen en el fenómeno que nos proponemos a investigar.

Y el modelo explicativo consiste en la comprobación de cómo se conectan las variables para buscar algún tipo de explicación del fenómeno que estudian, y para de ese modo contrastar o demostrar nuestras hipótesis.(M.D)

METODO EXPERIMENTAL


Permite analizar la influencia relativa de un programa o método de enseñanza, el cual se aplica deliberadamente a un grupo de sujetos de manera aleatoria, para medir el efecto.
Se caracteriza por la manipulación de una o varias de las variables independientes por parte del investigador, para estudiar los efectos de estas variaciones en las variables dependientes. En el método experimental se trabaja a través de hipótesis bien precisas para descubrir relaciones causales. (MD+MI)


Método Sincrónico:

Explica los fenómenos sociales a través de sus relaciones con fenómenos que se dan en el mismo tiempo.

Además son aquellos canales en los cuales es necesario que tanto el receptor como el emisor estén “online” al mismo tiempo. Este método es bastante utilizado en al educación virtual, entre los recursos que se utilizan se encuentran los chats, videoconferencias con pizarras, imágenes entres otros.(M.I)

Método Diacrónico :

Explica los fenómenos comparándolos con otros que se han presentado anteriormente. En este método se perciben los fenómenos sociales como una fase en un proceso dinámico.(M.D)

Método Analítico :

Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente cada uno de ellos por separado. La física, la química y la biología utilizan este método; a partir de la experimentación y el análisis de gran número de casos se establecen leyes universales. Consiste en la extracción de las partes de un todo, con el objeto de estudiarlas y examinarlas por separado, para ver, por ejemplo las relaciones entre las mismas.

Este método implica el análisis (del griego análisis, que significa descomposición), esto es la separación de un tono en sus partes o en sus elementos constitutivos. Se apoya en que para conocer un fenómeno es necesario descomponerlo en sus partes.(M-D)

.Método Sintéticos :

Implica la síntesis (del griego synthesis, que significa reunión), esto es, unión de elementos para formar un todo.

El juicio sintético, por lo contrario, consiste en unir sistemáticamente los elementos heterogéneos de un fenómeno con el fin de reencontrar la individualidad de la cosa observada. La síntesis significa la actividad unificante de las partes dispersas de un fenómeno. Sin embargo, la síntesis no es la suma de contenidos parciales de una realidad, la síntesis añade a las partes del fenómeno algo que sólo se puede adquirir en el conjunto, en la singularidad.

El método sintético es el utilizado en todas las ciencias experimentales ya que mediante ésta se extraen las leyes generalizadoras, y lo analítico es el proceso derivado del conocimiento a partir de las leyes. La síntesis genera un saber superior al añadir un nuevo conocimiento que no estaba en los conceptos anteriores, pero el juicio sintético es algo difícil de adquirir al estar basado en la intuición reflexiva y en el sentido común, componentes de la personalidad y que no permiten gran cambio temporal.(M.I)

.Método dialéctico:

La característica esencial del método dialéctico es que considera los fenómenos históricos y sociales en continuo movimiento. Dio origen al materialismo histórico, el cual explica las leyes que rigen las estructuras económicas y sociales, sus correspondientes superestructuras y el desarrollo histórico de la humanidad. Aplicado a la investigación, afirma que todos los fenómenos se rigen por las leyes de la dialéctica, es decir que la realidad no es algo inmutable, sino que está sujeta a contradicciones y a una evolución y desarrollo perpetuo. Por lo tanto propone que todos los fenómenos sean estudiados en sus relaciones con otros y en su estado de continuo cambio, ya que nada existe como un objeto aislado.

Este método describe la historia de lo que nos rodea, de la sociedad y del pensamiento, a través de una concepción de lucha de contrarios y no puramente contemplativa, más bien de transformación. Estas concepciones por su carácter dinámico exponen no solamente los cambios cuantitativos, sino los radicales o cualitativos.

Método Hermenéutico:

Hermenéutica significa expresión de un pensamiento, para quien la hermenéutica no es sólo una mera técnica auxiliar para el estudio de la historia de la literatura y en general de las ciencias del espíritu, sino que es un método igualmente alejado de la arbitrariedad interpretativa romántica y de la reducción naturalista, que permite fundamentar la validez universal de la interpretación histórica .Es pues una interpretación basada en un conocimiento previo de los datos (históricos, filosóficos, etc.) de la realidad que se trata de comprender, pero que a su vez da sentido a los citados datos por medio de un proceso inevitablemente circular, muy típico de la comprensión.
El método que usa, consciente o inconscientemente, todo investigador y en todo momento, ya que la mente humana es, por su propia naturaleza, interpretativa, es decir, hermenéutica: trata de observar algo y buscarle significado. En sentido estricto, se aconseja utilizar las reglas y procedimientos de este método cuando la información recogida (los datos) necesiten una continua hermenéutica, como sería el caso, por ejemplo, del estudio del crimen organizado, de sujetos paranoicos, etc., donde la información que se nos da puede tratar expresamente de desorientar o engañar. Sin embargo, este método tiene un área de aplicación mucho más amplia: es adecuado y aconsejable siempre que los datos o las partes de un todo se presten a diferentes interpretaciones.(M.D)

29 octubre, 2006

FUJO GRAMA












































































































































































































































10 octubre, 2006

ALBERT EISTEIN


¿Qué son las dimensiones ?

La existencia de dimensiones espaciales más allá de las tres habituales ha rondado la mente humana desde los albores del pensamiento racional, aunque tales especulaciones estuvieran imbricadas en las creencias religiosas o míticas. Por ejemplo, a partir de las consideraciones acerca de los distintos grados de contemplación de la divinidad por parte de las almas tras la muerte, surgió la idea acerca de los siete cielos, abriéndose así el camino hacia la multiplicidad del espacio, aunque fuera celestial.


Desde el punto de vista de la ciencia y filosofía occidental, la idea acerca del espacio fue basculando, a medida que iba perfeccionándose la descripción cualitativa del movimiento de los cuerpos, desde una concepción aristotélica corpórea y continua - donde el espacio poseía un significado de lugar o topos - hasta una noción más abstracta, como un marco de referencia idealizado y prácticamente inmaterial donde tenían lugar los acontecimientos físicos. Así, el poeta latino Tito Lucrecio, seguidor y defensor del atomismo de Epicuro, en su obra De rerum Natura distinguía netamente entre el recipiente espacial, pasivo e inmutable, y su contenido material, los átomos de materia que por él se movían. Sin embargo, el concepto epicúreo (y aristotélico también en este sentido) del espacio difería del comúnmente aceptado por la física clásica de la Edad Moderna al suponerlo dotado de una dirección preferente: la "vertical". Curiosamente, el cristianismo situó el infierno en el centro de la Tierra, un lugar privilegiado por representar nada menos que el centro del Universo.
Hubo que esperar hasta el siglo XVII para la introducción, por parte de Newton, de la noción del espacio absoluto como un sistema de referencia inercial inmaterial en donde las leyes del movimiento se podían expresar en su máxima simplicidad. En sus Principia, se establece claramente su concepción del espacio como un medio homogéneo que existe independientemente de su contenido físico: “El espacio absoluto, en su propia naturaleza, permanece siempre similar e inmóvil”. Aunque las leyes de la mecánica habían de ser las mismas en todos los sistemas inerciales, aquel referencial asociado al espacio absoluto estaba en reposo mientras que los demás, en cambio, se caracterizaban y distinguían del “privilegiado” por una cierta velocidad uniforme no nula.


Por otro lado, al interpretar la luz como una onda mecánica, se supuso que el espacio absoluto estaba lleno de éter. Éste elemento debía tener unas extraordinarias propiedades mecánicas: ser mucho más liviano que el aire pero, por otra parte, mucho más rígido que el acero para asegurar que la velocidad de propagación luminosa fuera muy elevada.

La noción del espacio como un abstracto recipiente inmóvil lleno de éter, perduró incuestionada durante un largo período de tiempo con la notable excepción del filósofo y obispo Berkeley en el siglo XVIII, quien al criticar el concepto de movimiento absoluto, sentaba las bases del relativismo cinemático en la filosofía, que luego habría de ejercer una considerable influencia sobre el pensamiento del físico Ernst Mach, y finalmente Albert Einstein. Los célebres experimentos de Michelson y Morley de finales del siglo XIX, al intentar medir la velocidad de la Tierra con respecto al éter, y por tanto con respecto al espacio absoluto, y su (entonces) sorprendente resultado sobre la constancia de la velocidad de la luz, puso en cuestión los conceptos mismos de espacio y tiempo absolutos.


Por otro lado, la geometría euclídea (desarrollada de manera axiomática en el siglo III a.C. en los Elementos de Euclides) fue asociada de “forma natural” al espacio habitual tridimensional durante cerca de dos milenios, en consonancia con las comprobaciones empíricas llevadas a cabo y, además, acorde con la intuición más común. Tanto es así que el filósofo Inmanuel Kant consideraba el espacio euclídeo como un concepto a priori del entendimiento, previo a la experiencia, en su obra fundamental Crítica de la razón pura de 1781.

Las geometrías no euclídeas fueron descubiertas por Lobachevski en 1835, y Bolyai tres años más tarde. La geometría riemaniana apareció veinte años después, considerando además espacios abstractos con un número indeterminado de dimensiones. Sin embargo, la formulación de la física en un espacio tridimensional euclídeo permaneció como un paradigma hasta la adopción por Einstein, a comienzos del siglo XX, de la geometría riemaniana para el espacio-tiempo cuadridimensional y su relación con la distribución de materia en la teoría de la relatividad general.

Teoría de cuerdas y nuevas dimensiones espaciales
El paradigma actual de la física de partículas, el llamado Modelo Estándar, ha sido verificado con una extraordinaria precisión, aunque no resulte totalmente satisfactorio en algunos aspectos fundamentales. Una de sus pegas esenciales consiste en la imposibilidad de formular una teoría cuántica de la interacción gravitatoria en dicho marco. El proceso conocido como renormalización en teoría cuántica de campos, que permite obtener resultados finitos directamente comparables con las medidas experimentales, y que se aplica con sorprendente éxito a las otras tres fuerzas básicas de la naturaleza (débil, electromagnética y fuerte), pierde su validez al aplicarlo al dominio de la gravitación donde el papel de los campos clásicos es jugado por las coordenadas espacio-temporales.


En la búsqueda de un nuevo formalismo que pueda superar este grave inconveniente, la teoría de cuerdas (del inglés string theory) proporciona un esquema de trabajo adecuado y riguroso para incorporar los efectos gravitacionales cuánticos en una teoría de campos generalizada. Así, los elementos básicos de la materia –quarks y leptones- dejan de ser descritos como partículas puntuales, estando en cambio dotados de una cierta extensión espacial (aunque ciertamente minúscula). El origen de la teoría de las cuerdas data de los años 1970, al suponerse a los hadrones compuestos por quarks y/o antiquarks unidos por “cuerdas”, de modo que el espectro hadrónico pudiera interpretarse mediante sus modos de vibración, estiramiento, rotación, etc, como en el caso de las estructuras moleculares en relación con los átomos.
La teoría inicial se desarrolló posteriormente adquiriendo la cuerda un carácter más fundamental y las partículas asociadas tanto a la materia como a la interacción se pudieron interpretar como sus modos de excitación. Además, la incorporación de la llamada supersimetría dio lugar al nacimiento de las supercuerdas, cuyo significado exacto va más allá del objetivo de este artículo
Digamos sólo brevemente que esta teoría proporciona una solución al denominado problema de la jerarquía dentro de la física de partículas. Dicho problema es consecuencia de la existencia de dos escalas de energías o masas muy diferentes: la escala electrodébil, del orden de 100-1000 GeV (Giga-electronvoltios) frente a la escala de Planck (10^19 GeV). Las masas de partículas a escalas altas desestabilizan virtualmente los resultados de observables a la escala presente requieriéndose un ajuste muy fino (utilizando muchas cifras decimales) en los cálculos. Pues bien, la teoría de las supercuerdas provee un medio para incorporar de un modo no forzado –natural- las correcciones cuánticas, por ejemplo, en la masa del Higgs.
Ahora bien, la teoría de las (super)cuerdas precisa de la existencia de más dimensiones de las habituales para ser formulada de una manera consistente siendo necesario un mínimo de diez dimensiones espaciales en el caso más simple. Sin embargo, para evitar un conflicto con la observación empírica que tan sólo ha mostrado la existencia de tres, las dimensiones extra han de ser convenientemente “compactificadas”, de un modo semejante a como lo había imaginado Kaluza y Klein.


Dimensiones espaciales adicionales “grandes”
Desde el trabajo pionero de Klein, las posibles dimensiones adicionales en el espacio tridimensional ordinario siempre habían sido supuestas extraordinariamente reducidas, compactificadas según minúsculos radios (del orden del inverso de la escala de Planck: 10^-33 cm) y por tanto fuera del alcance de cualquier observación directa. Expresado en términos de los aceleradores, la escala de compactificación equivale a 10^19 GeV, mucho más que la mayor de energías alcanzable en los colisionadores más poderosos en la actualidad, y futuros durante muchas generaciones probablemente, o en las colisiones de aquellos rayos cósmicos más energéticos.


Sin embargo, en una serie de artículos recientes (iniciados en 1998) los científicos Arkani-Hamed, Dimopoulos y Dvali (ADD) han propuesto una teoría donde se contempla la posibilidad de la existencia de una o más dimensiones espaciales adicionales que podrían no ser tan pequeñas. Antes al contrario, al introducir una nueva escala fundamental comparable a la escala electrodébil, el tamaño del volumen del espacio extra (llamado bulk en inglés) podría ser sorprendentemente grande, incluso en términos absolutos, del orden de los submúltiplos del milímetro. Naturalmente, una hipótesis tan osada (aunque bien fundamentada matemáticamente) produce un cierto escepticismo inicial pues surge la duda de porqué no han sido observadas todavía .

Por otro lado, sin embargo, la existencia de nuevas dimensiones espaciales podría explicar la razón por la que la gravitación es tan débil comparada con las otras interacciones fundamentales al suponer que sólo la primera podría propagarse a través del bulk pero tan sólo a muy corta distancia. En consecuencia, únicamente en las proximidades de una masa, las líneas del campo gravitatorio presentes en las dimensiones adicionales se harían manifiestas, y merced a un teorema debido al gran matemático alemán Carl Friedrich Gauss (1777-1855), la magnitud de la fuerza se incrementaría entonces notablemente. Sería posible entonces que las intensidades de las cuatro interacciones se hicieran comparables abriendo las puertas a su eventual unificación, el sueño inalcanzado de Einstein. ¿Podrían haber escapado las dimensiones adicionales a la detección experimental hasta hora pudiéndose, en cambio, ponerse de manifiesto en futuros –pero no lejanos- experimentos?


Detección experimental de las nuevas dimensiones espaciales
En realidad, la conocida ley de la gravitación -que predice una disminución de la intensidad de la fuerza según la inversa del cuadrado de la distancia a la fuente del campo- formulada por Isaac Newton hace más de tres siglos y que ha se ha mostradoextremadamente útil para explicar y predecir los movimientos astronómicos y multitud de fenómenos habituales sobre la corteza terrestre ¡no ha sido comprobada hasta el presente con exactitud por debajo del milímetro! En la actualidad, se están efectuando experimentos de gran precisión para detectar alguna desviación de la anterior ley del cuadrado de la distancia que permita descubrir -o descartar- la existencia de dimensiones adicionales del orden del milímetro o submúltiplos.


Ahora bien, existen otros procedimientos para la detección de este tipo de “nueva física” basados en colisiones de haces de protones acelerados en los grandes colisionadores como el ya operativo Tevatron en Fermilab de Chicago, o el LHC (acrónimo de Large Hadron Collider) actualmente en fase avanzada de construcción en el CERN en Ginebra. Una de las ideas consiste en que durante las interacciones entre los constituyentes de la materia a muy altas energías. se pueden producir partículas llamadas gravitones (que son los cuantos de la fuerza gravitatoria como los fotones lo son de la electromagnética) que podrían “escapar” de nuestro espacio tridimensional (en lenguaje más especializado: nuestra brana) hacia las dimensiones extra (el bulk) donde se perdería su observabilidad mediante los detectores y aparatos de medida, cuyo rango operativo está limitado exclusivamente a “nuestro mundo”. A pesar de ello, se podrían hallar indicios determinantes acerca de la existencia de tales procesos pues los gravitones, al evadirse dejarían una clara huella: el “sacrosanto” principio de conservación de la energía/momento lineal dejaría de cumplirse. En efecto, pongamos como ejemplo un clásico choque entre dos bolas de billar, donde no se concibe que una de las bolas salga despedida lateralmente a gran velocidad en una dirección sin que la otra compense el momento lineal (también llamado cantidad de movimiento) mediante un movimiento en sentido opuesto.
Del mismo modo, en el mundo subatómico, donde siguen vigentes las misma leyes cinemáticas que en el juego de billar, es imposible que exista un chorro de partículas en una dirección determinada sin que haya un balance de energía-momento en el sentido opuesto. Pero, precisamente, ahí radica la posibilidad de detectar el escape de un gravitón muy energético “desapareciendo” en el bula; entonces, a un observador en nuestra brana tridimensional le parecería que el principio de conservación de la cantidad de movimiento citado dejaría de verificarse. Por tanto, una señal experimental en los colisionadores acerca de la existencia de las dimensiones adicionales consistiría en la observación de algunos monojets (chorros concentrados de partículas muy energéticas) entre los millones de colisiones normales, sin que existan jets en la dirección opuesta. Ese sería uno de los objetivos científicos del gran colisionador de protones que se está construyendo en el Laboratorio




Esquema de la curvatura del espacio-tiempo alrededor de una masa.
Matemáticamente, Einstein modeló el espacio-tiempo por una
variedad pseudo-Riemaniana, y sus ecuaciones de campo establecen que la curvatura de la variedad en un punto está relacionada directamente con el tensor de energía en dicho punto; dicho tensor es una medida de la densidad de materia y energía. La curvatura le dice a la materia como moverse, y de forma recíproca la materia le dice al espacio como curvarse. La ecuación de campo posible no es única, habiendo posibilidad de otros modelos sin contradecir la observación. La relatividad general se distingue de otras teorías de la gravedad por la simplicidad de acoplamiento entre materia y curvatura, aunque todavía no se ha resuelto su unificación con la Mecánica cuántica y el reemplazo de la ecuación de campo con una ley adecuada a la cuántica. Pocos físicos dudan que una teoría así, una teoría del todo pondrá a la relatividad general en el límite apropiado, así como la relatividad general predice la ley de la gravedad en el límite no relativista.
La ecuación de campo de Einstein contiene un parámetro llamado "
constante cosmológica" Λ que, según algunos autores, fue originalmente introducida por Einstein para permitir un universo estático. Este esfuerzo no tuvo éxito por dos razones: la inestabilidad del universo resultante de tales esfuerzos teóricos, y las observaciones realizadas por Hubble una década después confirman que nuestro universo es de hecho no estático sino en expansión. Así Λ fue abandonada, pero de forma bastante reciente, técnicas astronómicas encontraron que un valor diferente de cero para Λ es necesario para poder explicar algunas observaciones. Otros autores consideran que la introducción de la constante cosmológica por parte de Einstein tiene que ver con su intento por resolver las paradojas de Mach.

08 octubre, 2006

dialectica

CONCEPTO BASICO DE DIALECTICA

Máximo conocimiento de la realidad o mera pseudo ciencia, parte de la lógica o praxis revolucionaria, el concepto de dialéctica ha logrado seducir a numerosos filósofos de diversas épocas y corrientes.


CONCEPTO DE DIALECTICA DEL CONOCIMIENTO


Para comprender más claramente que designamos por la dialéctica del conocimiento, podemos recurrir al siguiente pensamiento de Martínez (1997): actuamos con base en lo que percibimos; después nuestros actos influyen en nuestras percepciones; esto lleva a nuevos actos, y así se forma un proceso increíblemente complejo que constituye la vida misma.
Desde la perspectiva de la dialéctica del conocimiento, de acuerdo con Gutiérrez (1986), es inaceptable desligar pensamiento y realidad, y se tiene la convicción sobre una realidad modelada y construida por nuestros pensamientos, en donde investigamos de acuerdo a como formemos parte de esa realidad y desde nuestra perspectiva y posibilidad para conocerla.
Para Tejedor (1986), citado por Dobles, Zúñiga y García (1998), desde el punto de vista del paradigma naturalista el mundo es entendido como cambiante y dinámico. No se concibe el mundo como una fuerza externa objetivamente identificable o independiente del ser humano. Los sujetos humanos son conceptualizados como agentes activos en la construcción de la realidad. La investigación procura aprehender los patrones de interacción que permitan interpretar los procesos. Asimismo, se trata de comprender situaciones desde la perspectiva de los participantes en la situación.
Sobre la concepción dialéctica del conocimiento, es importante considerar los siguientes aspectos, de acuerdo con Martínez (1997):
La mente construye su objeto informando la materia amorfa por medio de formas subjetivas o categorías, como si inyectara sus propias leyes a la materia.

Ninguna percepción humana es inmaculada, ya que toda observación, por muy científica que sea, está “cargada de teoría”.

La percepción aprehende siempre estructuras significantes. Vemos aquello que esperamos ver o tenemos razones para esperar que veremos. Nunca vemos todo lo que pudiéramos ver, pues siempre hacemos una selección; y nunca somos meramente pasivos, sin que, en cierto modo “construimos” el objeto que vemos.


El significado dependerá de nuestra formación previa, de nuestras expectativas teoréticas actuales, de nuestras actitudes, creencias, necesidades, intereses, miedos e ideales y de la teoría (asimilada) del instrumento que estamos utilizando.

Toda realidad que aprehendemos es una realidad ya interpretada, y todo esfuerzo de conocimiento es siempre una interpretación de una interpretación.
DIALÉCTICA


Conclusiones

La concepción dialéctica del conocimiento propone que el sujeto construye el objeto de conocimiento, y que esta construcción está mediada por las experiencias previas del sujeto, sus creencias, valores, temores, preferencias, intereses, etc., así como la preparación que tenga acerca del instrumento que utiliza para conocer.

Desde el punto de vista de la dialéctica del conocimiento tenemos que asumir que el conocimiento es continuo y progresivo, inacabado y en constante evolución.

Desde el punto de vista de la dialéctica del conocimiento el aprendizaje tiene lugar mediante las actividades que desarrolla el sujeto para construir ese conocimiento.

La investigación que se realiza desde la óptica de la dialéctica del conocimiento privilegia el uso de métodos cualitativos. El investigador mismo aparece como uno de los instrumentos principales de investigación.

En la concepción dialéctica del conocimiento se parte de que los valores del investigador, de la teoría que asume y del contexto particular en que se realiza, tienen influencia en los resultados de la investigación.

25 agosto, 2006

CRITICAS

criticas sobre las 7 deficiencias que an sido señaladas por el Dr. Raúl Rojas Soriano

1.-La separación de los elementos filosóficos, epistemológicos, metodológicos y técnicos en el proceso de enseñanza-aprendizaje de la investigación.


1.- no se deve de separar lom procesos tecnicos de la imvestigación, ya que quita lo filosofico de la enseñansa que guia al alumno.

2. La presentación de esquemas o modelos de investigación como un conjunto de pasos o etapas que deben seguirse mecánicamente para alcanzar la verdad científica.


2.-no se deve de ser tan mecanico para llegar a a alcanzar la verdad cientifica. Por que eso nos llevaria ser mecanicos y no pensar de otra forna sino seguir siempre los mismos pasos

3. La desvinculación entre los planteamientos teóricos sobre la investigación y los problemas propios del medio profesional en donde el egresado va a trabajar. La formación de investigadores y, concretamente, la metodología se presenta en forma abstracta, aislada de las condiciones sociohistóricas en que vive y trabaja el alumno.

3sEs verdaderamente la realidad porque los ple¡anteamientos teoricos no enseñan lo que en verdad se vive fuera del mundo abstracto que nos enseñan se deveria de brindar una verdadera realidad de donde el alumno egresado deve de enfrentar y no se choque con la dura realidad que le espera.

4. La exposición de los temas metodológicos está bajo la responsabilidad del profesor, mientras que los alumnos asumen una actitud pasiva o cuando mucho sólo participan con preguntas o dudas.

4.-no sienpre esta bajo la responsavilidad de profesor sino tambien depende del alumno pero el alumno devede plantear sus pensamientos e ideas sobre loque se esta tratando.


5. La realización de talleres de investigación reproduce los vicios y deficiencias de la enseñanza tradicional: poca participación, pobre discusión. La mayoría de los miembros del equipo de trabajo no asume su responsabilidad; se nombran representantes para realizar las distintas tareas, lo que origina poca o ninguna colaboración del resto del equipo.


5 sedeve dellegar ala colavoracion de todos loscompañeros de grupo no de solos quienes sevan a encargar porque asi se llega a ser un exelente trabajo condensandolas ideasde todos y plasmandolas.

6. La falta de productos concretos (proyectos de investigación) que permitan materializar las indicaciones metodológicas.

6.-deve de estar completa la imvestigación para que se persiva la idea principal y el tema sentral.


7. La desvinculación entre el método de investigación y el método de exposición. Se enseña a investigar pero se descuidan los aspectos relacionados con la exposición del trabajo, lo que dificulta cumplir con una exigencia fundamental de la comunicación científica: socializar el conocimiento

7.-El caos que produsela desvinculación de los dos temas llevan ha un conflicto pues sedeve de imvestigar relacionando la expocicion del trabajo cumpliendo la verdadera intención desocializar publicarel conocimiento dado hacia el exterior.


estas son las criticas profesor