#10 Me lo he leído antes de contestarte y perdona si sigo pero soy algo cabezón y a veces me cuesta entender las cosas xD
Tal como tu dices, lo que podemos controlar es el software, y en una pagina web, el software es la programación en si.
En programación, hay muchas formas de hacer las cosas, pero solo una es la buena, por ejemplo, puedo hacer una query que tarde sus 10 segs en ejecutarse, o conseguir el mismo resultado con 4 querys independientes en 2 segundos.
La cuestion es que, la mayoria de cosas, cuando las prueba una persona solo, apenas afectan al rendimiento, pero cuando estan ejecutando la misma query muchas personas, es cuando se estresa el servidor.
Entonces, cada ejecución o consulta a base de datos, consume X memoria, tanto de CPU como de RAM, asi que no veo de que forma es fiable realizar 100mil conexiones a por ejemplo, un Pentium 4 a 2Ghz con 2gb de ram, frente a un i5 con 4nucleos a 2.66ghz y 16gb de ram.
A lo mejor esta todo mas que optimizado y todo de puta madre, pero con 100mil conexiones en el primer servidor petaria todo y 100mil conexiones en el segundo no.
EDIT:
de todas formas, no me habeis entendido, queria una herramienta para comprobar la fiabilidad de una web, no que lo fuera a probar yo solo, es decir, buscaba algo como esto : https://loadimpact.com pero sin tener que pagar