Почему python «застенчив», чтобы использовать память в докере?

Я запускаю сценарий python с интенсивной памятью (pandas, numpy, machine learning) в докере, и производительность ужасна.

На моем хост-компьютере сценарий использует более 10 ГБ ОЗУ. Прикрепленный скрипт python использует только 3Gb (процесс com.docker.hyperkit). Я уже изменял свои предпочтения памяти докеры до 10 гб (в графическом интерфейсе Mac OS Docker) и запускал контейнер с явным ограничением памяти:

docker run -m 10g ... 

Почему контейнер не использует 10gb, как это делает хост-приложение?

Компьютерные программы используют другие ресурсы помимо memmory. Есть процессор, устройства ввода / вывода и информация. Я бы предположил, что такое поведение, которое вы видите, является результатом того, что другой ресурс был exausted. Например, ваше устройство ввода-вывода может вызвать узкое место перед заполнением memmory. Это просто предположение, потому что у меня нет другой информации.