首页  >  文章  >  后端开发  >  碰到诡异问题,大能解答,关于表单提交大文件无限数据提交问题

碰到诡异问题,大能解答,关于表单提交大文件无限数据提交问题

WBOY
WBOY原创
2016-06-23 13:54:05779浏览

服务器环境
php环境
出现情况:上传30M文件的时候 本地数据一直在提交,观察服务器io 也一直有下载流量。但是就没有个结束,php输出 $_FILES,也不会执行到这行代码,比如我提交30M文件表单提交,但是流量估计超过好几百M也不会停止,反正不认为停止脚步,就是不听在数据交互。请问有大哥碰到这情况吗?是否哪些php配置没配置对


回复讨论(解决方案)

你在服务器上观察临时文件的变化情况
接收上传到临时文件是在 php 代码运行之前的事情,在代码层面无法感知

大文件上传问题已解决 以我测试上传32M文件大小为例
php 运行方式 FPM-FCGI
php.ini 
upload_max_filesize = 64M//上传文件最大限制
post_max_size = 100M //POST方法提交最大限制 最好大于上面
max_execution_time = 300//脚本超时时间
max_input_time = 300
memory_limit = 200M //如果不够大。会导致内存溢出500错误
nginx.conf
client_max_body_size 100m; //根据文件大小自己调整提交空间

以上解决方案。自己查百度摸索出来分享下,有哪位大能能对大文件上传有比较系统的配置优化方案希望能指点一二,谢谢!!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn