Mises Wire

Home | Wire | Ética para inhumanos

Ética para inhumanos

  • friday

Etiquetas FilosofíaFilosofía y Metodología

12/30/2022

What We Owe the Future
por William MacAskill
Basic Books, 2022; 333 pp.

William MacAskill, profesor de filosofía en Oxford y figura destacada del movimiento del altruismo efectivo, ha sido noticia recientemente por la financiación frenética y fraudulenta de su protegido Sam Bankman-Fried, que ahora está a la espera de juicio. Los «altruistas eficaces» se tomaron en serio las implicaciones que Peter Singer extrajo de su famoso experimento mental: Supongamos que nos encontramos con un niño pequeño que se está ahogando en un estanque. Puede rescatarlo fácilmente, pero si lo hace estropeará el par de zapatos caros que lleva puestos. Si te niegas a salvar al niño, ¿no demostrarías que eres un bruto desalmado? Pero, según Singer, nada en el sentido moral del ejemplo depende de tu proximidad física al niño. Si hubieras donado el coste de los zapatos a la caridad, podrías haber salvado de la muerte a un niño que vive en el tercer mundo. Singer, basándose en un marco utilitarista, argumenta a continuación que estás moralmente obligado a donar todos tus ingresos por encima de la subsistencia a la caridad, aunque reconoce que pocos estarán dispuestos a hacerlo. Además, para maximizar el efecto de sus donaciones, debe investigar qué organizaciones benéficas son más eficaces, una prescripción que los altruistas eficaces adoptan con entusiasmo. Pero ellos han mejorado a Singer. Para maximizar nuestras donaciones caritativas, tenemos que ganar tanto dinero como sea posible, y eso a menudo requerirá que busquemos empleo en trabajos bien remunerados y luego donemos todo lo que podamos a la caridad. Seguir este consejo llevó a Bankman-Fried a su carrera en inversiones.

Sería injusto culpar a MacAskill de los pecadillos de Bankman-Fried, ya que no hay indicios de la implicación de MacAskill en ellos, pero su manifiesto ético merece atención por derecho propio. Como sugiere su título, es una extensión radical del altruismo efectivo que hace hincapié en el futuro. Para ser «franco» al respecto, Lo que debemos al futuro adopta una visión de la ética desvinculada de nuestra vida humana común y, en su empeño por asumir lo que Henry Sidgwick denominó «el punto de vista del universo», es absolutamente extraño, mucho más en su teoría que en sus más bien banales recomendaciones prácticas.

La clave de la ética de MacAskill es lo que él denomina «largoplacismo», la idea de que influir positivamente en el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. El largoplacismo consiste en tomarse en serio lo grande que puede ser el futuro y lo mucho que está en juego para darle forma. Si la humanidad sobrevive aunque sólo sea una fracción de su vida potencial, entonces, por extraño que parezca. . . . [lo que hagamos ahora afectará a un número incalculable de personas en el futuro» (pp. 4-5). Si los seres humanos viven lo que una especie típica de mamíferos, miles y miles de millones de personas del futuro están por nacer, y sus intereses inundan los nuestros.

Si objetas: «¿Por qué debería preocuparme por eso? Me preocupo por mi familia y mis amigos, no por posibles personas en un futuro lejano», la respuesta de MacAskill es de una moderación desarmante: «Las relaciones especiales y la reciprocidad son importantes. Pero no cambian el fondo de mi argumento. No pretendo que los intereses del presente y del futuro tengan siempre el mismo peso. Sólo afirmo que las personas del futuro tienen una importancia significativa» (p. 11).

Sin embargo, si adoptas el punto de vista de MacAskill, serás incapaz de mantener la distinción que sugiere aquí. Supongamos que das a la existencia de cada posible persona futura un peso ínfimo en comparación con las personas que valoras. MacAskill considera que la utilidad es aditiva; si hay suficientes personas futuras, la suma de sus utilidades superará a la utilidad de las personas cercanas. Por grande que sea la disparidad inicial entre la utilidad de una persona cercana y la de una persona futura, los números darán un veredicto a favor de la futura. Y, juzgada desde el punto de vista del sentido común, la situación es aún peor. Dado el enorme número de personas del futuro, incluso una pequeña probabilidad de mejorar su suerte pesará más que los intereses reales de las personas cercanas y queridas. MacAskill dice que no exige que la gente sacrifique de este modo los intereses de sus allegados, pero no puede evitarlo con la lógica de su argumento. Si pretende escapar sosteniendo que las utilidades de todas las personas posibles en el futuro deben tomarse como un todo indivisible y no como una suma de utilidades individuales, entonces no puede impedir que la gente dé a los intereses de los del presente un peso prácticamente infinito, muy contrario al espíritu de su planteamiento.

Merece la pena profundizar en la matemática moral de MacAskill, que toma del gran filósofo de Oxford Derek Parfit, aunque MacAskill la lleva a un extremo que Parfit intentó evitar. Como bien dice MacAskill, la ética de la población es muy difícil y técnica, pero, para simplificar groseramente, Parfit trató de demostrar que, en ciertos supuestos plausibles, una situación en la que algunas personas tienen utilidades muy altas y otras más bajas puede mostrarse inferior a una distribución equitativa de utilidades si se añaden suficientes personas a la distribución. (Debo decir que, para esta columna, debemos dejar de lado la noción austriaca de preferencia demostrada de la utilidad; más vale una pena). Si este proceso se repite suficientes veces, llegaremos a la «Conclusión Repugnante»:

Consideremos dos mundos que llamaremos Grande y Floreciente y el segundo Enorme y Soso. Grande y próspero contiene diez mil millones de personas, todas ellas con un nivel de bienestar extremadamente alto. Enorme y Soso tiene un número extraordinariamente grande de personas, y todos tienen vidas que sólo tienen un bienestar ligeramente positivo. Si la visión total es correcta. . . . [el bienestar de un número suficiente de vidas que tienen un bienestar ligeramente positivo puede sumar más que el bienestar de diez mil millones de personas extremadamente acomodadas. El propio Parfit pensaba que este era un resultado profundamente desagradable, tan desagradable que lo llamó la Conclusión Repugnante. (p. 180)

MacAskill argumenta que la forma más plausible de evitar la Conclusión Repugnante, el punto de vista del nivel crítico, conduce a resultados igualmente contraintuitivos:

Desde el punto de vista del nivel crítico, añadir vidas que tienen un bienestar bajo pero positivo es algo malo... . Este punto de vista escapa a la Conclusión Repugnante... . Sin embargo, el punto de vista del nivel crítico tiene sus propias implicaciones contraintuitivas... . Lleva a lo que se llama la Conclusión Sádica: que puede ser mejor añadir al mundo vidas llenas de sufrimiento que añadir vidas buenas. . . . El punto de vista del nivel crítico considera que añadir vidas que apenas tienen bienestar positivo es algo malo; así que añadir suficientes vidas de este tipo puede resultar en un peor bienestar general que añadir un número menor de vidas llenas de sufrimiento. (p. 185)

Esta objeción al punto de vista del nivel crítico falla porque se mantiene en la maximización de la utilidad sobre poblaciones totales. El punto de vista del nivel crítico es mejor tomarlo no como una forma de comparar poblaciones por debajo del nivel crítico de bienestar con otras poblaciones, como hace MacAskill, sino más bien como un obstáculo para hacer cualquier comparación una vez que se alcanza el nivel crítico. Esto evita la conclusión sádica, ya que las comparaciones en ese escenario no están permitidas. Si MacAskill responde que este límite es arbitrario, la objeción puede volverse contra él. ¿Por qué deberíamos suponer que las comparaciones de los niveles de utilidad de las poblaciones están siempre permitidas, una suposición tanto más cuestionable cuanto que negarse a hacerla nos permite evitar tanto la Conclusión Repugnante como la Conclusión Sádica?

Es posible que los lectores impacientes hayan objetado hace tiempo: «Aunque aceptáramos la ética prospectiva de MacAskill, sabemos poco sobre lo que ocurrirá dentro de cientos de miles de años. ¿De qué sirven en la práctica cotidiana las especulaciones de MacAskill?». Aquí, por una vez, podemos salir en defensa de nuestro autor. Es muy consciente de la incertidumbre del futuro, de hecho insiste en ello, y las políticas que recomienda apenas son radicales, dejando a un lado algunas cuestiones, como la más que leve manía de que la inteligencia artificial se apodere del mundo.

Aunque reconozco plenamente que no se trata de un argumento, confieso que siento una fuerte aversión hacia esta extraña banda de «altruistas eficaces», que dedican su vida a «hacer el bien», mientras limitan en gran medida sus relaciones humanas a los compañeros de secta y dan gracias a Dios «porque no son como los demás hombres» (Lucas 18:11, KJV). Dejémosles mientras calculan ansiosamente sus «huellas de carbono», y busquemos los fundamentos de la ética de una forma más humana.

Author:

Contact David Gordon

David Gordon is Senior Fellow at the Mises Institute and editor of the Mises Review.

Do you want to write on this topic?
Check out our submission Guidelines
Note: The views expressed on Mises.org are not necessarily those of the Mises Institute.