La deteccion de redes wifi dependen de muchos factores:
1º. La antena. Es evidente que cuanto mejor sea la ganancia de la antena, mejor recepción tendrá
2º. Potencia destinada al adaptador WIFI, pero evidentemente esto se enfrenta directamente al mayor consumo de batería, WIFI es una tecnología que consume bastante
3º. Beacon. Los Beacon son tramas especiales que emite los puntos de acceso para darse a conocer. Es decir, cuando detectas una red lo que realmente detectas es un Beacon de dicho punto de acceso. Estos Beacon son lanzados continuamente al aire por el AP (punto de acceso) cada X tiempo preconfigurado. Pongamos que tienes dos dispositivos y un AP. Pongamos q el AP emite 1 beacons cada segundo y pongamos que tu iPod busca beacons cada 2 segundos, mientras que otro dispositivo lo hace cada medio segundo. El ejemplo es claro, el iPod al margen de que tenga mejor/peor covertura o menor/mayor potencia, le costará encontrar dicho beacon mucho más, aunque tb tendrá un menor uso de batería, ya que es evidente que cuanto menos tiempo detectes beacon mas consumo tendrás. Esto es lo mismo para los AP. Lo ideal sería emitir beacons cada 1 ms? en cada segundo emitir 1000 beacons? casi seguro que cualquier dispositivo te detectaría, pero claro... tb tendría un consumo energético mucho mayor y ademas un considerable aumento tb del ancho de banda usado.
Cualquiera de las tres opciones son explicaciones, incluso las 3 a la vez si quieres. Siempre tienes q llegar a un compromiso. Que prefieres... mejor rendimiento o mayor duracion batería? cada fabricante toma sus propias políticas, mejoran drivers, son mas eficientes... etc etc. Apple no es en este aspecto el fabricante más eficiente ni mucho menos.