Navaja de Ockham
Lanavaja de Ockham(a veces escritoOccamuOckam),principio de economíaoprincipio de parsimonia(lex parsimoniae) es unprincipiofilosóficoymetodológicoatribuido alfrailefranciscano,filósofo ylógicoescolásticoGuillermo de Ockham(1285-1347) (aunque investigaciones más profundas sugieren que éste se puede rastrear más atrás, al menos hastaAristóteles[1][2][3][4]), según el cual «en igualdad de condiciones, la explicación más simple suele ser la más probable». Esto implica que, cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias, la teoría más simple tiene más probabilidades de ser correcta que la compleja.[5]
En ciencia, este principio se utiliza como una regla general para guiar a los científicos en el desarrollo de modelos teóricos. En elmétodo científico,la navaja de Ockham no se considera un principio irrefutable y ciertamente no es un resultado científico. «La explicación más simple y suficiente es la más probable, mas no necesariamente la verdadera», según el principio de Ockham. En ciertas ocasiones, la opción compleja puede ser la correcta. Su sentido es que en condiciones idénticas se prefieran las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría. Así pues, de acuerdo con este principio, no debería preferirse una teoría simple pero con pocas evidencias sobre una teoría compleja pero con mayores pruebas.
Lo que ha de tenerse en cuenta para medir la simplicidad, sin embargo, es una cuestión ambigua.[5] Quizás la propuesta más conocida sea la que sugirió el mismo Ockham: cuando dos teorías tienen las mismas consecuencias, debe preferirse la teoría que postule la menor cantidad de (tipos de)entidades.[6] Otra manera de medir la simplicidad, sin embargo, podría ser por el número deaxiomasde la teoría.[5]
La navaja de Ockham se aplica en casos prácticos y específicos, englobándose dentro de los principios fundamentales de la filosofía de laescuela nominalistaque opera sobre conceptos individualizados y casos empíricos.
El principio
[editar]El principio es atribuido al fraile franciscano inglés del sigloXIVGuillermo de Ockhamy es fundamental para elreduccionismometodológico. Este principio ya formaba parte de lafilosofía medievalaunque fue Ockham quien lo utilizó de forma sistemática. Sin embargo, no solamente es un principio metodológico sino que, además, tiene característicasgnoseológicasyontológicas.
|
En su forma más simple, el principio de Ockham indica que las explicaciones nunca deben multiplicar las causas sin necesidad.
|
Esta regla ha tenido una importancia capital en el desarrollo posterior de laciencia.
Algunos postulados que se desarrollan por este principio son:
- En igualdad de condiciones, normalmente la explicación más simple es la mejor.
- No hay que postular la existencia de entidades innecesarias para la explicación.
- Siempre tenemos que intentar explicar lo desconocido en términos de lo conocido.
Origen del término
[editar]La denominación de navaja de Ockham apareció en el sigloXVII,y con ella se expresaba que mediante ese principio, Ockham «afeitaba como una navaja las barbas dePlatón», ya que de su aplicación se obtenía una notable simplicidad ontológica, por contraposición a la filosofía platónica que «llenaba» su ontología de entidades (además de los entes físicos, Platón admitía los entes matemáticos y las ideas). Desde una perspectiva ontológica, pues, la aplicación de este principio permitió a Ockham eliminar muchas entidades, a las que declaró innecesarias. De esta manera se enfrentó a muchas tesis sustentadas por laescolásticay, en especial, rechazó la existencia de las especies sensibles o inteligibles como intermediarias en el proceso del conocimiento, y rechazó también elprincipio de individuación,al que calificó de especulación vacía e innecesaria.
El principio en las distintas disciplinas
[editar]En economía
[editar]Eneconomía,el argumento de la navaja de Ockham se utiliza en la teoríamicroeconómicadelcomportamiento del consumidor.Al no ser necesaria la utilidad cardinal, sino solo la ordinal para explicar su comportamiento, se escoge esta última, por ser la explicación más sencilla de las dos.
En lingüística
[editar]Enlingüística,el argumento de la navaja de Ockham fue utilizado para revisar la adecuación explicativa (problema de adquisición del lenguaje) del modelo deAspectos de una teoría de la sintaxisde lagramática generativadeNoam Chomsky.Siguiendo su postulado, la teoría pasó de sostener la adquisición del lenguaje por medio de un gran número de reglas complejas a explicarlo por la existencia de unos pocos principios parametrizables (principios y parámetros,programa minimalista).
En teología
[editar]Enteología,Ockham afirmó que no es necesario postular más entes de los necesarios: «[...] en teología, no postular más que aquellos que exija el dogma; en filosofía (metafísica), aquellos que la razón necesite».
En biología
[editar]Algunoscreacionistassostienen que la navaja de Ockham puede ser usada para defender la hipótesis del creacionismo frente a laevolución.Después de todo, suponer que unDioslo haya creado todo es aparentemente más simple que la teoría de la evolución.
Sin embargo, defensores de lateoría de la evolución de Darwinafirman que el sencillo algoritmo evolutivo —laselección natural— se basta por sí solo para explicar la evolución sin necesidad de multiplicar las causas, argumentan que la navaja de Ockham sirve para hacer innecesarios los llamados «ganchos celestiales», es decir, las explicaciones extranaturales de los fenómenos naturales. De este modo, rechazan situar a la entidad más compleja de todas (un Dios omnipotente) en el origen de toda vida en el universo (o en el origen del propio universo); al contrario, se busca el principio más simple capaz de generar complejidad, que aunque en un primer momento siguiendo el criterio de Ockham es el que deberíamos preferir para explicar el fenómeno, no por ello inmediatamente comprueba su mayor probabilidad ni su veracidad;[7] tal como se describe más abajo.
ElzoólogobritánicoRichard Dawkinsplantea por ejemplo que si el universo fue creado por un dios, el origen de ese dios debería asimismo ser explicado. Siendo que una entidad capaz de crear un universo como el nuestro debe ser "infinitamente más compleja que el propio universo", por tanto explicar su origen será infinitamente más complejo que explicar el origen del universo sin su intervención, violándose de este modo el principio de parsimonia, al suplantar una incógnita (origen del universo) por otra incógnita de una complejidad infinitamente mayor (origen de Dios), aunque claro está que dicha incógnita solo puede correrse válidamente en un campo meramente materialista e implicaría colocarla en una serie de restricciones, lo cual la vuelve contradictoria desde su base.
En estadística
[editar]El principio de parsimonia tiene aplicaciones de importancia en el análisis exploratorio de modelos deregresión linealmúltiple. De un conjunto de variables explicativas que forman parte del modelo a estudiar, debe seleccionarse la combinación más reducida y simple posible, teniendo en cuenta la varianza residual, la capacidad de predicción y lamulticolinealidad.
En música
[editar]Una de las aportaciones musicológicas del libroOn Musical Self-Similarity(2011) deGabriel Pareyón,es el desarrollo de una teoría que opera en el sentido, no de una navaja, sino de unaAnti-navaja de Ockham(véase este concepto más abajo). El resumen de esta formulación aparece del siguiente modo, donde lanecesidad lógicatiene más bien un sentido de coordinación: «La contradicción entre economía y repetición en música es aparente: la música repite lo que es necesario repetir, a fin de crear tensión adecuada entre preferencia y gramática, como coordinación del proceso musical» (On Musical Self-Similarity,2011:477).
En medicina
[editar]Se trata de un procedimientoheurístico,que podría denominarse «heurística de la simplicidad», que señala que los médicos deben utilizar la manera más sencilla posible de explicar en forma correcta los síntomas o signos del paciente y lograr así un razonamiento clínico bajo las bases de la heurística (Harrison's Principles of Internal Medicine).[8]
En informática
[editar]La aplicación de la teoría en las ciencias informáticas[9] es motivo de debates. Ante la creciente complejidad de los equipos y los sistemas de lainformática,se ha desarrollado el llamadoprincipio KISS,sobre todo en relación con el diseño de Internet, donde se ha formulado comoPrincipio de Simplicidad[10]. A veces, también se traduce como «Keep It Short and Simple» o «Manténlo corto y simple».
Controversia sobre la parsimonia de la navaja
[editar]La navaja de Ockham no implica la negación de la existencia de ningún tipo de entidad, ni siquiera es una recomendación de que la teoría más simple sea la más válida.[11] Su sentido es quea igualdad de condiciones,sean preferidas las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría.[12] Así pues, de acuerdo con este principio, no debe preferirse una teoría simple pero incorrecta sobre una teoría compleja pero correcta.
Sin embargo, para el filósofo Paul Newall, el punto principal que hace que la navaja de Ockham sea de poca ayuda, si no explícitamente entorpecedora y dañina, es que es imposible establecera priorilas consecuencias de añadir entidades adicionales. Puesto que la ciencia nunca finaliza, siempre estamos en la posición «antes» y nunca llegamos a la posición «después», que segúnNiels Bohrera el único momento en el que se podría introducir la navaja de Ockham,[13] lo cual, obviamente, ya no es de ninguna ayuda para juzgar de antemano una teoría.
Porque, ¿qué nos hace pensar que eluniversoes simple y ordenado, en lugar decomplejoycaótico?¿Y si eluniversoy larealidadmisma tuvieran una estructurafractal?[14][15][16][17][18][19]
Preferir una teoría que explique los datos en función del menor número de causas no parece sensato. ¿Existe algún tipo de razón objetiva para pensar que una teoría así tiene más probabilidades de ser cierta que una teoría menos simple? Aún hoy en día, losfilósofos de la cienciano se ponen de acuerdo en darle una respuesta a esta pregunta.[20]
Su forma moderna es la medida decomplejidaddeKolmogórov.No existe una medida simple de simplicidad. Dadas tres explicaciones, no podemos estar seguros de cuál es la más simple. No es posible aplicar lasmatemáticaspara determinar la validez de un juicio. Se vuelve al juiciosubjetivoyrelativo.
Por ejemplo, lafísica clásicaes más simple que las teorías posteriores. Matemáticamente, la física clásica es aquella en cuyas ecuaciones no aparece laconstante de Planck.Unparadigmaactual principal de la física es que las leyes fundamentales de la naturaleza son las leyes de lafísica cuánticay la teoría clásica es la aplicación de las leyes cuánticas al mundo macroscópico. Aunque en la actualidad esta teoría es más asumida que probada, uno de los campos de investigación más activos es la correspondencia clásica-cuántica. Este campo de la investigación se centra en descubrir cómo las leyes de la física cuántica producen física clásica dependiendo de que laescalasea alnivel microscópico,mesoscópicoomacroscópicode larealidad.
Sin embargo, lo que aduce la navaja de Ockham es que lafísica clásicano se debería preferir a teorías posteriores y más complejas, como lamecánica cuántica,puesto que se ha demostrado que la física clásica está equivocada en algunos aspectos. El primer requerimiento para unateoríaes que funcione, que sus predicciones sean correctas y que no haya sidofalsada.La navaja de Ockham se utiliza para distinguir entre teorías que se supone que ya han pasado estas pruebas y aquellas que se encuentran igualmente soportadas por las evidencias.[21]
Otro controvertido aspecto de la navaja de Ockham es que una teoría puede volverse más compleja en lo relativo a su estructura (osintaxis), mientras que suontología(osemántica) se va haciendo más simple, o viceversa.[22] Un ejemplo habitual de esto es lateoría de la Relatividad.
Galileo Galileicriticó duramente elmal usode la navaja de Ockham en suDiálogos sobre los dos máximos sistemas del mundo, ptolemáico y copernicano.La navaja de Ockham viene representada por el diálogo de Simplicio, un mediocre defensor de lafísica aristotélica,un personaje con el que quizás Galileo estuviera representando al papaUrbano VIII.El punto clave sobre el que ironizó Galileo fue que sirealmentese quisiera comenzar desde un número pequeño de entidades, siempre se podrían considerar las letras del abecedario como entidades fundamentales, puesto que con toda certeza se podría construir todo el conocimiento humano a partir de ellas.
Anti navajas de Ockham
[editar]La navaja de Ockham se ha encontrado con multitud de oposiciones por parte de quienes la han considerado demasiado extrema o imprudente.
El teólogo inglésWalter Chatton(1290-1343), contemporáneo deGuillermo de Ockham,cuestionó la navaja de Ockham y el uso que este hizo de ella. Como respuesta, aportó su propiaantinavaja:«Si tres cosas no son suficientes para verificar una proposición afirmativa sobre las cosas, una cuarta debe ser añadida, y así sucesivamente».
Otros filósofos que también crearon antinavajas fueronGottfried Leibniz(1646-1716),Immanuel Kant(1724–1804), yCarl Menger(1902-1985). La versión de la antinavaja de Leibniz tomó su forma en el principio de plenitud, que establece que «todo lo que sea posible que ocurra, ocurrirá».
Leibniz argumentaba que la existencia del «mejor de todos los mundos posibles» confirmaría genuinamente cada posibilidad, y postuló en suTeodiceaque este «mejor de todos los mundos posibles» contendría todas las posibilidades, sin que nuestra experiencia finita pudiera cuestionar racionalmente acerca de la perfección de la naturaleza.
Este mismo principio de plenitud se encuentra presente en el concepto demultiverso,en la teoría de los universos múltiples o "muchos mundos"del físico estadounidenseHugh Everett,teorías consideradas como científicas. El reciente descubrimiento de laenergía oscura,[23][24][25][26] una suerte dequintaesencia[27] que se podría atribuir al movimiento dinámico de uncampo escalar,[28] les ha permitido a los físicos Lauris Baum y Paul Frampton,[29] autor este en 1974 del primer libro[30] sobreteoría de cuerdas,formular la existencia de una nueva entidad —contrariamente a lo que la navaja de Ockham argumentaría—, laenergía fantasma,[31] la cual daría lugar a unmodelo cíclicodel universo[32] en el que laentropíadel universo decrecería hasta cero,[29] un modelo ya sugerido por Albert Einstein,[33] que explicaría por qué el valor de laconstante cosmológicaes varios órdenes de magnitud inferior[34] al que predice lateoría del Big Bang,inventada por el sacerdote católicoGeorges Lemaître,[35] pese a ser la comúnmenteconsensuadapor la comunidad científica. Recientemente, algunos científicos han cuestionado incluso una de las asunciones principales de laFísica,el supuesto de que lasconstantes universalessean realmenteconstantes[36][37][38][39][40] y sus implicaciones.[41] En el año 2009 se lanzó elsatélitePlanck,que podría permitir dilucidar qué teoría es más adecuada.[42]
Para el filósofoDavid Kellogg Lewis(1941-2001), considerado uno de losfilósofos analíticosmás importantes del sigloXXy proponente delrealismo modal,existe un númeroinfinitode mundoscausalmenteaislados y el nuestro es tan solo uno de ellos. Para Lewis, la navaja de Ockham, aplicada aobjetos abstractoscomoconjuntos,es, o bien dudosa por principio o simplemente falsa.[43]
Immanuel Kant(1724-1804) también sintió la necesidad de moderar los efectos de la navaja de Ockham, creando así su propia antinavaja en suCrítica de la razón pura:«La variedad de seres no debería ser neciamente disminuida». (1781)
Karl Menger(1902-1985) encontró a los matemáticos demasiado parsimoniosos en lo que respecta a las variables, de modo que formuló sulaw against miserliness(‘ley contra la tacañería’) que tomó estas dos formas: «1.ª—Las entidades no deben ser reducidas hasta el punto de inadecuación. 2.ª—Es vano hacer con menos lo que requiere más» (1962).[44]
InclusoAlbert Einsteintambién aportó su propia anti navaja de Ockham: «A duras penas se puede negar que el objetivo supremo de toda teoría es convertir los elementos básicos en simples y tan pocos como sea posible, pero sin tener que rendirse a la adecuada representación de un solo dato de la experiencia. Simple, pero no más simple» (1934).[45]
Véase también
[editar]- Aristóteles
- Metafísica
- Nominalismo
- Sherlock Holmes
- Filosofía de la ciencia
- David Hume
- Escepticismo filosófico
- Immanuel Kant
- Karl Popper
- Principio de Hanlon
- Prejuicio cognitivo
- Aprendizaje Ockham
Notas y referencias
[editar]- ↑Brampton, C. K. (1964).«Nominalism and the Law of Parsimony».The Modern Schoolman41(3): 273-281.ISSN0026-8402.doi:10.5840/schoolman196441356.Consultado el 20 de febrero de 2024.
- ↑Maurer, Armand (1978).«Method in Ockham’s Nominalism».Monist61(3): 426-443.ISSN0026-9662.doi:10.5840/monist197861334.Consultado el 20 de febrero de 2024.
- ↑A. A. Maurer, “La navaja de Ockham y la anti-navaja de Chatton” (en inglés: Mediaeval Studies, 1984 (46), pp. 463-475).
- ↑W. Thorburn, “El mito de la navaja de Ockham” (en inglés: Mind, 1918 (27), pp. 345-353)
- ↑abcRobert Audi (ed.). «Ockham's razor».The Cambridge Dictionary of Philosophy(en inglés)(2ª edición).Cambridge University Press.
- ↑En sus palabras: «entia non sunt multiplicanda praeter necessitatem», es decir: «no deben multiplicarse las entidades innecesariamente».[cita requerida]
- ↑García González, Juan A. (2003). Francisco Oropesa, ed.Ockham.España: Editex.ISBN84-9771-085-1.
- ↑Harrison's Principles of Internal Medicine(18ª edición). New York, USA: McGraw Hill Companies Inc. 2012.ISBN978-0-07-163244-7.
- ↑Como aplicar el principio de la Navaja de Ockham en la informática
- ↑Meyer, David; Bush, Randy (2002-12).Some Internet Architectural Guidelines and Philosophy(RFC 3439). Internet Engineering Task Force.Consultado el 7 de noviembre de 2024.
- ↑Skeptic's Dictionary.
- ↑Usenet Phyics FAQs.
- ↑Newall, Paul. «Ockham’s Razor» (2005).
- ↑Amanda Gefter. «Is the Universe a fractal?Archivadoel 17 de septiembre de 2008 enWayback Machine.».New Scientist,9 de marzo de 2007.
- ↑D F Roscoe. arXiv:astro-ph/0609432v1.Via Aristotle, Leibnitz and Mach to a Fractal D=2 Universe.
- ↑J. R. Mureika. J. Cosmol. Astropart. Phys. JCAP05(2007)021.Fractal Holography: a geometric re-interpretation of cosmological large scale structure.
- ↑Marcelo B. Ribeiro. Gen.Rel.Grav. 33 (2001) 1699-1730.The Apparent Fractal Conjecture: Scaling Features in Standard Cosmologies.
- ↑Reginald T. Cahill, Christopher M. Klinger, Kirsty Kitto. The Physicist 37 (2000) 191-195.Process Physics: Modelling Reality as Self-Organising Information.
- ↑Búsqueda en la base de datosPubMed,indexando casi 5000 publicaciones. Investigaciones científicas sobrefractales.Fractals.
- ↑Okasha, Samir.Philosophy of Science. A very short introduction,p. 33.Oxford University Press,2002.ISBN 0-19-280283-6.
- ↑«En la actualidad, se cree que el principio de parsimonia es un dispositivoheurístico.No se asume que la teoría más simple es la correcta y que la más compleja es falsa. Por experiencia, a menudo las teorías más complejas son incorrectas. Pero hasta que se pruebe lo contrario, la teoría más compleja debe ser puesta en cuarentena,pero no descartada a la pila de los desechos de la historia hasta que se demuestre que sea falsa».The Skeptic's dictionary.
- ↑«Mientras que estos dos aspectos de la simplicidad se suelen mezclar, es importante tratarlos como distintos. Una de las razones para hacerlo es que habitualmente, las consideraciones sobre parsimonia y elegancia tiran en direcciones diferentes. Postular entidades extra puede permitir que una teoría sea formulada de forma más simple, mientras que reducir laontología(semántica) de una teoría puede ser únicamente posible a cambio de pagar el precio de que sintácticamente sea más compleja».Stanford Encyclopedia of Philosophy.
- ↑P. J. E. Peebles y+ Bharat Ratra (2003).«The cosmological constant and dark energy».Reviews of Modern Physics75:559-606.
- ↑Saul Perlmutteret al.(The Supernova Cosmology Project) (1999).«Measurements of Omega and Lambda from 42 high redshift supernovae».Astrophysical J.517:565-86.
- ↑Adam G. Riesset al.(Supernova Search Team) (1998).«Observational evidence from supernovae for an accelerating universe and a cosmological constant».Astronomical J.116:1009-1038.
- ↑D. N. Spergelet al.(WMAP collaboration) (marzo de 2006).Wilkinson Microwave Anisotropy Probe (WMAP) three year results: implications for cosmology.
- ↑Hrvoje, Stefancic. Phys.Rev. D71 (2005) 124036Dark energy transition between quintessence and phantom regimes.
- ↑Ivaylo Zlatev, Limin Wang, Paul J. Steinhardt (1999):«Quintessence, cosmic coincidence, and the cosmological constant»,artículo en inglés publicado en la revistaPhys. Rev. Lett.,82, págs. 896-899; 1999.
- ↑abLauris Baum, Paul H. Frampton. Phys.Rev.Lett. 98 (2007) 071301.Turnaround in cyclic cosmology.
- ↑Paul H. Frampton (1974).«Dual resonance models».W. A. Benjamin.ISBN 0-8053-2581-6.
- ↑Robert R. Caldwell, Marc Kamionkowski, Nevin N. Weinberg. Phys.Rev.Lett. 91 (2003) 071301.Phantom energy and cosmic doomsday.
- ↑Lauris Baum and Paul H. Frampton. Phys. Rev. Lett. 98, 071301 (2007)Turnaround in Cyclic Cosmology.
- ↑Steinhardt, Paul J. Albert Einstein Professor in Science, Princeton University; Autor deEl universo cíclico.No Beginning and No End.
- ↑Paul J. Steinhardt, Neil Turok. Science 312 (2006) 1180-1182.Why the cosmological constant is small and positive.
- ↑Lemaître, G. (1931). «The evolution of the universe: discussion».Nature128:suppl.: 704.
- ↑Wandelt, Ben. 2Physics, July 25, 2007. «Ni siquiera la constancia de las constantes de la naturaleza está garantizada».Changing Constants, Dark Energy and the Absorption of 21 cm Radiation.
- ↑Uzan, Jean-Philippe. Rev.Mod.Phys. 75 (2003) 403.The fundamental constants and their variation: observational status and theoretical motivations.
- ↑Duff, M.J. arXiv:hep-th/0208093v3.Comment on time-variation of fundamental constants.
- ↑Barrow, John. D. arXiv:astro-ph/9811022v1.Cosmologies with Varying Light-Speed.
- ↑Reginald T. Cahill. Infinite Energy 10 (2005) 28-37.The speed of light and the Einstein legacy: 1905-2005Archivadoel 14 de noviembre de 2007 enWayback Machine.
- ↑John D. Barrow,The Constants of Nature; From Alpha to Omega — The Numbers that Encode the Deepest Secrets of the Universe,Pantheon Books, New York, 2002,ISBN 0-375-42221-8.
- ↑Planck. European Space Agency.
- ↑David Kellogg Lewis.Philosophical Papers,vol. II. Oxford University Press, 1987.ISBN 0-19-503646-8.
- ↑Maurer, Armand A., 1962.Medieval Philosophy.New York: Random House. 1984. «Ockham's Razor and Chatton’s anti-razor».Mediaeval Studies46, pp. 463-475.
- ↑On the Method of Theoretical PhysicsConferencia Herbert Spencer, Oxford (10 de junio de 1993); también publicada enPhilosophy of Science,vol. 1, n.º 2 (abril de 1934), pp. 163-169.