Existe un principio llamado “valor esperado” en el que se calcula el valor de un evento multiplicado por la probabilidad de que ocurra. Por ejemplo, el valor esperado de un proceso que tiene un 50% de probabilidad de ocurrir y paga $ 100 es de $ 50, mientras que un proceso que tiene un pago de $ 1,000 y una probabilidad de éxito del 1% es de $ 10. Si siempre elige con el mayor valor esperado, saldrá adelante en el largo plazo. (Esta es la razón por la cual la lotería no es una buena apuesta.) Esto también funciona con resultados negativos. Un evento que le costará $ 1,000 y tiene un 1% de probabilidades de suceder tiene un valor esperado de $ 10. Si siempre toma la decisión que tiene el menor valor esperado negativo, debe salir con el menor riesgo. Sin embargo, hay un problema con esto, ya que no siempre es fácil asignar un valor a los eventos catastróficos. Un evento que borra todo lo que tienes y tiene un 1% de probabilidad de pasar (dejándote morir de hambre) puede ser peor que un evento que tiene un 15% de probabilidad de pasar pero que eliminaría un 10% de lo que tienes, porque podría recuperarse de eso. Es por eso que el seguro es una buena idea. Tomar una visión del mundo, un evento que acabaría con toda la raza humana, pero tiene un 1% de posibilidades de suceder, podría considerarse peor que un evento que eliminaría al 10% de la raza humana y tiene un 15% de posibilidades de suceder, incluso aunque el valor negativo esperado calculado es mayor para este último. Por lo tanto, para desastres manejables (de los que puede recuperarse), el principio del valor esperado (tomar el evento con el menor riesgo esperado) puede dar como resultado el mejor resultado en general. Sin embargo, si no puede recuperarse del desastre, debe prestar más atención a los eventos de muy baja probabilidad.
¿Existe un método racional y científicamente válido para priorizar el riesgo personal? De ser así, ¿seguiría funcionando el mismo método para clasificar los riesgos más globales, como la contaminación, las enfermedades, el hambre, etc.?
Supreme Content
No es una respuesta, pero un punto de partida podría provenir de la ciencia actuarial.
Creo que un gran punto de discusión con riesgo es qué tipo de “colas” existen en las distribuciones de probabilidad relacionadas con diferentes fenómenos. Podrían distribuirse normalmente y entonces la idea de un promedio tendría sentido y podría usarse para equilibrar decisiones, prioridades o la distribución podría seguir una ley de poder, en la que cualquier evento nuevo lo movería a un nuevo estado, y la idea de un promedio y la capacidad de predecir la escala de riesgo sería muy difícil / imposible.
Creo que esto se relaciona con los eventos tipo Black Swan, personalmente encontré “La (mis) conducta de los mercados: una visión fractal del riesgo, la ruina y la recompensa” de Mandelbrot como una gran introducción a la idea.
Sin embargo, creo que el riesgo de la civilización se puede evaluar de manera simplista examinando una red de riesgos y cómo se influenciarían mutuamente. Me referiría a las amenazas a la supervivencia de la humanidad por más.
Si y si.
More Interesting
¿Cuáles son las aplicaciones de la mecánica de fluidos en medicina?
¿Cuáles son algunos de los principales avances médicos en los últimos 10 años?
¿Por qué el óxido nitroso en el aire no induce la risa?
¿Es la medicina una ciencia positiva? Si no, ¿por qué?
Cómo aplicar la programación de computadoras a la investigación biomédica y llegar a algo especial
¿Cuál es el equivalente más cercano de “Las conferencias de Feynman sobre Física” para la biología?
¿Hay alguna evidencia científica de que los anti-vaxxers son de menor inteligencia?