首发于Java学习

nginx master-worker进程工作原理

nginx的master-worker进程模型是其能够高性能的处理用户请求的原因之一,而且这里的每个worker进程都只会启动一个线程来处理用户请求。通常我们会将worker进程的数量设置得与我们的CPU数量一致,nginx也会将每个进程与每个CPU进行绑定。通过这种方式,可以充分利用操作系统多核的特性,并且能够最大限度的减少线程之间的切换而导致的资源损耗。本文首先会对nginx的master-worker进程模型进行讲解,然后会从源码的角度对nginx的master-worker进程模型的实现原理进行讲解。

1. 工作原理

在nginx启动过程中,主进程就是master进程,该进程在启动各个worker进程之后,就会进入一个无限循环中,以处理客户端发送过来的控制指令;而worker进程则会进入一个循环中,从而不断接收客户端的连接请求以及处理请求。如下是master-worker进程模型的一个原理示意图:



从图中我们可以看出nginx工作的一般性原理:

  • master进程通过接收客户端的请求,比如-s reload-s stop等,解析这些命令之后,通过进程间通信,将相应的指令发送到各个worker进程,从而实现对worker进程的控制;
  • 每个worker进程都会竞争同一个共享锁,只有竞争到共享锁的进程才能够处理客户端请求;
  • 当客户端请求发送过来之后,worker进程会处理该请求的事件,如果是accept事件,则会将其添加到accept队列中,如果是read或者write事件,则会将其添加到read-write队列中;
  • 在将事件添加到相应的队列中之后,在持有共享锁的情况下,nginx会处理完accept队列中的客户端连接请求,而对于read或者write事件,则会在释放锁之后直接从read-write队列中取出事件来处理。

2. 源码解析

2.1 子进程的启动

在前面的文章中,我们讲到,nginx的worker进程是在nginx.c中的ngx_master_process_cycle()方法中进行的。如下是该方法的源码:

void ngx_master_process_cycle(ngx_cycle_t *cycle) {
  char *title;
  u_char *p;
  size_t size;
  ngx_int_t i;
  ngx_uint_t n, sigio;
  sigset_t set;
  struct itimerval itv;
  ngx_uint_t live;
  ngx_msec_t delay;
  ngx_listening_t *ls;
  ngx_core_conf_t *ccf;

  sigemptyset(&set);
  sigaddset(&set, SIGCHLD);
  sigaddset(&set, SIGALRM);
  sigaddset(&set, SIGIO);
  sigaddset(&set, SIGINT);
  sigaddset(&set, ngx_signal_value(NGX_RECONFIGURE_SIGNAL));
  sigaddset(&set, ngx_signal_value(NGX_REOPEN_SIGNAL));
  sigaddset(&set, ngx_signal_value(NGX_NOACCEPT_SIGNAL));
  sigaddset(&set, ngx_signal_value(NGX_TERMINATE_SIGNAL));
  sigaddset(&set, ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
  sigaddset(&set, ngx_signal_value(NGX_CHANGEBIN_SIGNAL));

  // 如果接收到了信号集中的信号则阻塞该信号的执行,当前还处于启动过程中,因而需要阻塞这些信号的执行
  if (sigprocmask(SIG_BLOCK, &set, NULL) == -1) {
    ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                  "sigprocmask() failed");
  }

  // 重置信号集
  sigemptyset(&set);

  // 这里的master_process是一个字符串,实际上就是给master进程起的一个名字
  size = sizeof(master_process);

  // 计算所有参数的总长度
  for (i = 0; i < ngx_argc; i++) {
    size += ngx_strlen(ngx_argv[i]) + 1;
  }

  title = ngx_pnalloc(cycle->pool, size);
  if (title == NULL) {
    /* fatal */
    exit(2);
  }

  // 将master名称和各个参数的值都复制到title中
  p = ngx_cpymem(title, master_process, sizeof(master_process) - 1);
  for (i = 0; i < ngx_argc; i++) {
    *p++ = ' ';
    p = ngx_cpystrn(p, (u_char *) ngx_argv[i], size);
  }

  // 为进程设置title
  ngx_setproctitle(title);

  // 获取核心模块的配置
  ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx, ngx_core_module);

  // 启动各个worker进程
  ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN);
  // 启动cache进程
  ngx_start_cache_manager_processes(cycle, 0);

  ngx_new_binary = 0;
  delay = 0;
  sigio = 0;
  live = 1;

  for (;;) {
    if (delay) {
      if (ngx_sigalrm) {
        sigio = 0;
        delay *= 2;
        ngx_sigalrm = 0;
      }

      ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
                     "termination cycle: %M", delay);

      itv.it_interval.tv_sec = 0;
      itv.it_interval.tv_usec = 0;
      itv.it_value.tv_sec = delay / 1000;
      itv.it_value.tv_usec = (delay % 1000) * 1000;

      if (setitimer(ITIMER_REAL, &itv, NULL) == -1) {
        ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                      "setitimer() failed");
      }
    }

    ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "sigsuspend");

    sigsuspend(&set);

    ngx_time_update();

    ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
                   "wake up, sigio %i", sigio);

    if (ngx_reap) {
      ngx_reap = 0;
      ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "reap children");

      // 这里的操作主要分为三种情况:
      // 1. 关闭创建的每一个进程;
      // 2. 如果某个进程标记为了respawn,也即重新生成,那么就会重新创建一个进程以替代正在关闭的进程;
      // 3. 如果当前是平滑升级,则将旧的pid文件替换为新的pid文件;
      // 需要注意的是,这里的live表示当前是否还有进程是处于存活状态的
      live = ngx_reap_children(cycle);
    }

    // 如果当前nginx已经退出了,则退出master进程
    if (!live && (ngx_terminate || ngx_quit)) {
      ngx_master_process_exit(cycle);
    }

    if (ngx_terminate) {
      if (delay == 0) {
        delay = 50;
      }

      if (sigio) {
        sigio--;
        continue;
      }

      sigio = ccf->worker_processes + 2 /* cache processes */;

      if (delay > 1000) {
        // 这里主要是向各个进程发送SIGKILL命令
        ngx_signal_worker_processes(cycle, SIGKILL);
      } else {
        // 这里主要是向各个进程发送NGX_TERMINATE_SIGNAL命令
        ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_TERMINATE_SIGNAL));
      }

      continue;
    }

    if (ngx_quit) {
      // 这里主要是向各个进程发送NGX_SHUTDOWN_SIGNAL命令
      ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL));

      ls = cycle->listening.elts;
      for (n = 0; n < cycle->listening.nelts; n++) {
        // 关闭监听的端口
        if (ngx_close_socket(ls[n].fd) == -1) {
          ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_socket_errno, ngx_close_socket_n " %V failed", &ls[n].addr_text);
        }
      }
      cycle->listening.nelts = 0;

      continue;
    }

    if (ngx_reconfigure) {
      ngx_reconfigure = 0;

      // 如果当前是平滑升级,则重新创建worker进程和cache相关进程
      if (ngx_new_binary) {
        ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN);
        ngx_start_cache_manager_processes(cycle, 0);
        ngx_noaccepting = 0;

        continue;
      }

      ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reconfiguring");

      // 如果不是平滑升级,则首先重新初始化cycle对象
      cycle = ngx_init_cycle(cycle);
      if (cycle == NULL) {
        cycle = (ngx_cycle_t *) ngx_cycle;
        continue;
      }

      ngx_cycle = cycle;
      ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx, ngx_core_module);
      // 然后重新生成worker和cache进程
      ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_JUST_RESPAWN);
      ngx_start_cache_manager_processes(cycle, 1);

      /* allow new processes to start */
      ngx_msleep(100);

      live = 1;
      ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
    }

    if (ngx_restart) {
      ngx_restart = 0;
      ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN);
      ngx_start_cache_manager_processes(cycle, 0);
      live = 1;
    }

    if (ngx_reopen) {
      ngx_reopen = 0;
      ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs");
      ngx_reopen_files(cycle, ccf->user);
      ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_REOPEN_SIGNAL));
    }

    if (ngx_change_binary) {
      ngx_change_binary = 0;
      ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "changing binary");
      ngx_new_binary = ngx_exec_new_binary(cycle, ngx_argv);
    }

    if (ngx_noaccept) {
      ngx_noaccept = 0;
      ngx_noaccepting = 1;
      ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL));
    }
  }
}

在上面的方法中,主进程首先初始化了一个信号集,并且阻塞了这些信号的相关指令,然后通过调用ngx_start_worker_processes()方法启动worker进程,接着会调用ngx_start_cache_manager_processes()方法启动cache manager和cache loader进程,这里两个cache相关的进程的工作原理我们会在后面的文章中进行讲解。在启动各个进程之后,master进程就会进入一个无限for循环中,这里主要是检查当前的各个标志位的状态,从而接收客户端发送的信号,然后根据具体的信号类型进行相应的处理逻辑。这里我们主要看`ngx_start_worker_processes()是如何启动worker进程的:

static void ngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n, ngx_int_t type) {
  ngx_int_t i;
  ngx_channel_t ch;

  ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start worker processes");

  ngx_memzero(&ch, sizeof(ngx_channel_t));

  ch.command = NGX_CMD_OPEN_CHANNEL;

  for (i = 0; i < n; i++) {

    // spawn是产卵的意思,这里就是生成一个子进程的意思,而该子进程所进行的事件循环就是
    // ngx_worker_process_cycle()方法,这里的ngx_worker_process_cycle是worker进程处理事件的循环,
    // worker进程在一个无限for循环中,不断的检查相应的事件模型中是否存在对应的事件,
    // 然后将accept事件和read、write事件分开放入两个队列中,最后在事件循环中不断的处理事件
    ngx_spawn_process(cycle, ngx_worker_process_cycle,
                      (void *) (intptr_t) i, "worker process", type);

    // 下面的这段代码的主要作用是将新建进程这个事件通知到其他的进程,
    // 上面的ch.command = NGX_CMD_OPEN_CHANNEL;中NGX_CMD_OPEN_CHANNEL表示的就是
    // 当前是新建了一个进程,而ngx_process_slot存储的就是该新建进程所存放的数组位置
    // 这里需要进行广播的原因在于,每个子进程被创建后,其内存数据都是复制的父进程的,
    // 但是ngx_processes数组是每个进程都有一份的,因而数组中先创建的子进程是没有后创建的子进程的数据的,
    // 但是master进程是有所有子进程的数据的,因而这里master进程创建子进程之后,
    // 其就会向ngx_processes数组的每个进程的channel[0]上写入当前广播的事件,也即这里的ch,
    // 通过这种方式,每个子进程接收到这个事件之后,都会尝试更新其所保存的ngx_processes数据信息
    ch.pid = ngx_processes[ngx_process_slot].pid;
    ch.slot = ngx_process_slot;
    ch.fd = ngx_processes[ngx_process_slot].channel[0];

    // 将当前创建了子进程的事件广播给其余的进程
    ngx_pass_open_channel(cycle, &ch);
  }
}

这里主要是根据指定的worker进程数量,通过一个for循环启动多个worker进程,启动的方法为ngx_spawn_process(),该方法中第二个参数ngx_worker_process_cycle是一个方法,在ngx_spawn_process()方法启动一个子进程之后,就会调用ngx_worker_process_cycle()方法,而传递给该方法的参数则是传入的第三个参数,也即这里的i。在创建了一个子进程之后,就会通过ngx_pass_open_channel()方法将当前创建子进程的事件广播给其他的子进程,以让其更新各自缓存的数据。这里的ngx_channel_t就是供给master进程和worker进程相互之间进行通信的结构体对象。这里我们首先看一下ngx_spawn_process()方法是如何创建子进程的:

ngx_pid_t ngx_spawn_process(ngx_cycle_t *cycle, ngx_spawn_proc_pt proc, void *data, char *name, ngx_int_t respawn) {
  u_long on;
  ngx_pid_t pid;
  ngx_int_t s;

  if (respawn >= 0) {
    s = respawn;

  } else {
    // 在ngx_processes数组中存储了当前创建的所有进程,而ngx_last_process则是当前当前记录的最后
    // 一个process在ngx_processes中的下一个位置的索引,只不过ngx_processes中记录的进程
    // 有可能有部分已经失效了。当前循环就是从头开始查找是否有某个进程已经失效了,如果已经失效了,
    // 则复用该进程位置,否则直接使用ngx_last_process所指向的位置
    for (s = 0; s < ngx_last_process; s++) {
      if (ngx_processes[s].pid == -1) {
        break;
      }
    }

    // 这里说明所创建的进程数达到了最大限度
    if (s == NGX_MAX_PROCESSES) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, 0,
                    "no more than %d processes can be spawned",
                    NGX_MAX_PROCESSES);
      return NGX_INVALID_PID;
    }
  }

  // NGX_PROCESS_DETACHED标志表示当前fork出来的进程与原来的父进程没有任何关系,比如进行nginx升级时,
  // 新生成的master进程就与原先的master进程没有关系
  if (respawn != NGX_PROCESS_DETACHED) {

    /* Solaris 9 still has no AF_LOCAL */

    // 这里的socketpair()方法的主要作用是生成一对套接字流,用于主进程和子进程的通信,这一对套接字会存储在
    // ngx_processes[s].channel中,本质上这个字段是一个长度为2的整型数组。在主进程和子进程
    // 进行通信的之前,主进程会关闭其中一个,而子进程会关闭另一个,然后相互之间往未关闭的
    // 另一个文件描述符中写入或读取数据即可实现通信。AF_UNIX表示当前使用的是UNIX文件形式的socket地址族
    // SOCK_STREAM指定了当前套接字建立的通信方式是管道流,并且这个管道流是双向的,
    // 即管道双方都可以进行读写操作第三个参数protocol必须为0
    if (socketpair(AF_UNIX, SOCK_STREAM, 0, ngx_processes[s].channel) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "socketpair() failed while spawning \"%s\"", name);
      return NGX_INVALID_PID;
    }

    ngx_log_debug2(NGX_LOG_DEBUG_CORE, cycle->log, 0,
                   "channel %d:%d",
                   ngx_processes[s].channel[0],
                   ngx_processes[s].channel[1]);

    // 将ngx_processes[s].channel[0]设置为非阻塞模式
    if (ngx_nonblocking(ngx_processes[s].channel[0]) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    ngx_nonblocking_n
                        " failed while spawning \"%s\"",
                    name);
      ngx_close_channel(ngx_processes[s].channel, cycle->log);
      return NGX_INVALID_PID;
    }

    // 将ngx_processes[s].channel[1]设置为非阻塞模式
    if (ngx_nonblocking(ngx_processes[s].channel[1]) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    ngx_nonblocking_n
                        " failed while spawning \"%s\"",
                    name);
      ngx_close_channel(ngx_processes[s].channel, cycle->log);
      return NGX_INVALID_PID;
    }

    on = 1;
    // 将ngx_processes[s].channel[0]套接字管道设置为异步模式
    if (ioctl(ngx_processes[s].channel[0], FIOASYNC, &on) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "ioctl(FIOASYNC) failed while spawning \"%s\"", name);
      ngx_close_channel(ngx_processes[s].channel, cycle->log);
      return NGX_INVALID_PID;
    }

    // 当前还处于主进程中,这里的ngx_pid指向了主进程的进程id,当前方法的作用主要是将
    // ngx_processes[s].channel[0]的操作权限设置给主进程,也就是说主进程通过向
    // ngx_processes[s].channel[0]写入和读取数据来与子进程进行通信
    if (fcntl(ngx_processes[s].channel[0], F_SETOWN, ngx_pid) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "fcntl(F_SETOWN) failed while spawning \"%s\"", name);
      ngx_close_channel(ngx_processes[s].channel, cycle->log);
      return NGX_INVALID_PID;
    }

    // FD_CLOEXEC表示当前指定的套接字管道在子进程中可以使用,但是在execl()执行的程序中不可使用
    if (fcntl(ngx_processes[s].channel[0], F_SETFD, FD_CLOEXEC) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "fcntl(FD_CLOEXEC) failed while spawning \"%s\"",
                    name);
      ngx_close_channel(ngx_processes[s].channel, cycle->log);
      return NGX_INVALID_PID;
    }

    // FD_CLOEXEC表示当前指定的套接字管道在子进程中可以使用,但是在execl()执行的程序中不可使用
    if (fcntl(ngx_processes[s].channel[1], F_SETFD, FD_CLOEXEC) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "fcntl(FD_CLOEXEC) failed while spawning \"%s\"",
                    name);
      ngx_close_channel(ngx_processes[s].channel, cycle->log);
      return NGX_INVALID_PID;
    }

    // ngx_processes[s].channel[1]是用于给子进程监听相关事件使用的,当父进程向
    // ngx_processes[s].channel[0]发布事件之后,
    // ngx_processes[s].channel[1]中就会接收到对应的事件,从而进行相应的处理
    ngx_channel = ngx_processes[s].channel[1];

  } else {
    // 如果是NGX_PROCESS_DETACHED模式,则表示当前是另外新起的一个master进程,因而将其管道值都置为-1
    ngx_processes[s].channel[0] = -1;
    ngx_processes[s].channel[1] = -1;
  }

  ngx_process_slot = s;


  // fork()方法将产生一个新的进程,这个进程与父进程的关系是子进程的内存数据将完全复制父进程的。
  // 还需要注意的是,fork()出来的子进程执行的代码是从fork()之后开始执行的,而对于父进程而言,
  // 该方法的返回值为父进程id,而对于子进程而言,该方法返回值为0,
  // 因而通过if-else语句就可以让父进程和子进程分别调用后续不同的代码片段
  pid = fork();

  switch (pid) {

    case -1:
      // fork出错
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "fork() failed while spawning \"%s\"", name);
      ngx_close_channel(ngx_processes[s].channel, cycle->log);
      return NGX_INVALID_PID;

    case 0:
      // 子进程执行的分支,这里的proc()方法是外部传进来的,也就是说,当前方法只是创建一个新的进程,
      // 具体的进程处理逻辑,将交由外部代码块进行定义ngx_getpid()方法获取的就是当前新创建的子进程的进程id
      ngx_pid = ngx_getpid();
      proc(cycle, data);
      break;

    default:
      // 父进程会走到这里
      break;
  }

  ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start %s %P", name, pid);

  // 父进程会走到这里,当前的pid是fork()之后父进程得到的新创建的子进程的pid
  ngx_processes[s].pid = pid;
  ngx_processes[s].exited = 0;

  if (respawn >= 0) {
    return pid;
  }

  // 设置当前进程的各个属性,并且存储到ngx_processes数组中的对应位置
  ngx_processes[s].proc = proc;
  ngx_processes[s].data = data;
  ngx_processes[s].name = name;
  ngx_processes[s].exiting = 0;

  switch (respawn) {

    case NGX_PROCESS_NORESPAWN:
      ngx_processes[s].respawn = 0;
      ngx_processes[s].just_spawn = 0;
      ngx_processes[s].detached = 0;
      break;

    case NGX_PROCESS_JUST_SPAWN:
      ngx_processes[s].respawn = 0;
      ngx_processes[s].just_spawn = 1;
      ngx_processes[s].detached = 0;
      break;

    case NGX_PROCESS_RESPAWN:
      ngx_processes[s].respawn = 1;
      ngx_processes[s].just_spawn = 0;
      ngx_processes[s].detached = 0;
      break;

    case NGX_PROCESS_JUST_RESPAWN:
      ngx_processes[s].respawn = 1;
      ngx_processes[s].just_spawn = 1;
      ngx_processes[s].detached = 0;
      break;

    case NGX_PROCESS_DETACHED:
      ngx_processes[s].respawn = 0;
      ngx_processes[s].just_spawn = 0;
      ngx_processes[s].detached = 1;
      break;
  }

  if (s == ngx_last_process) {
    ngx_last_process++;
  }

  return pid;
}

这里在创建子进程的过程中,首先主要是创建了一对用于master进程和worker进程之间进行通信的管道,也即这里的channel数组,该数组的长度为2,其中,第0号位用于master进程向worker进程发送信息,而worker进程则会监听该管道数组的第1号位的管道,从而获取master进程发送过来的消息,前面已经讲到,master进程向worker进程广播消息都是使用ngx_channel_t结构体进行封装的。在创建了这一对管道之后,就会为其设置TCP相关的参数。接着就会调用fork()方法创建一个子进程,创建之后,子进程会调用proc()方法,这里的proc()方法就是ngx_spawn_process()方法传入的第二个参数,也就是说nginx在创建子进程之后,子进程就会进入ngx_worker_process_cycle()方法以实现worker进程的处理逻辑。在创建完子进程之后,master进程就会根据当前创建子进程的类型,来设置ngx_processes数组中标记当前新创建进程位置的结构体对象中的相关属性。

2.2 worker进程处理逻辑

根据前面的讲解,我们知道,worker进程启动之后就会进入ngx_worker_process_cycle()方法中进行相关的逻辑的处理。如下是该方法的源码:

static void ngx_worker_process_cycle(ngx_cycle_t *cycle, void *data) {
  ngx_int_t worker = (intptr_t) data;

  ngx_process = NGX_PROCESS_WORKER;
  ngx_worker = worker;

  ngx_worker_process_init(cycle, worker);

  ngx_setproctitle("worker process");

  for (;;) {

    if (ngx_exiting) {
      if (ngx_event_no_timers_left() == NGX_OK) {
        ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting");
        ngx_worker_process_exit(cycle);
      }
    }

    ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "worker cycle");

    // 这里通过检查相应的事件模型中是否存在对应的事件,然后将其放入队列中进行处理,
    // 这里是worker进程处理事件的核心方法
    ngx_process_events_and_timers(cycle);

    // 如果当前nginx已经终止,则退出当前进程
    if (ngx_terminate) {
      ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting");
      ngx_worker_process_exit(cycle);
    }

    if (ngx_quit) {
      ngx_quit = 0;
      ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "gracefully shutting down");
      ngx_setproctitle("worker process is shutting down");

      if (!ngx_exiting) {
        ngx_exiting = 1;
        ngx_set_shutdown_timer(cycle);
        ngx_close_listening_sockets(cycle);
        ngx_close_idle_connections(cycle);
      }
    }

    if (ngx_reopen) {
      ngx_reopen = 0;
      ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs");
      ngx_reopen_files(cycle, -1);
    }
  }
}

在上面的处理逻辑中,可以看出,worker进程首先会调用ngx_worker_process_init()方法初始化worker进程,然后会在一个无限for循环中不断调用ngx_process_events_and_timers()方法以进行相应的客户端事件的处理。这里我们首先看一下ngx_worker_process_init()方法是如何初始化worker进程的:

/**
 * 这里主要是对当前进程进行初始化,为其设置优先级和打开的文件限制等参数。
 * 最后会为当前进程添加一个监听channel[1]的连接,以不断读取master进程的消息,从而进行相应的处理
 */
static void ngx_worker_process_init(ngx_cycle_t *cycle, ngx_int_t worker) {
  sigset_t set;
  ngx_int_t n;
  ngx_time_t *tp;
  ngx_uint_t i;
  ngx_cpuset_t *cpu_affinity;
  struct rlimit rlmt;
  ngx_core_conf_t *ccf;
  ngx_listening_t *ls;

  // 设置时区相关的信息
  if (ngx_set_environment(cycle, NULL) == NULL) {
    /* fatal */
    exit(2);
  }

  ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx, ngx_core_module);

  // 设置当前进程的优先级
  if (worker >= 0 && ccf->priority != 0) {
    if (setpriority(PRIO_PROCESS, 0, ccf->priority) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "setpriority(%d) failed", ccf->priority);
    }
  }

  // 设置当前进程能够打开的文件句柄数
  if (ccf->rlimit_nofile != NGX_CONF_UNSET) {
    rlmt.rlim_cur = (rlim_t) ccf->rlimit_nofile;
    rlmt.rlim_max = (rlim_t) ccf->rlimit_nofile;

    if (setrlimit(RLIMIT_NOFILE, &rlmt) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "setrlimit(RLIMIT_NOFILE, %i) failed",
                    ccf->rlimit_nofile);
    }
  }

  // Changes the limit on the largest size of a core file(RLIMIT_CORE) for worker processes.
  // 简而言之就是设置核心文件能够使用的最大大小
  if (ccf->rlimit_core != NGX_CONF_UNSET) {
    rlmt.rlim_cur = (rlim_t) ccf->rlimit_core;
    rlmt.rlim_max = (rlim_t) ccf->rlimit_core;

    if (setrlimit(RLIMIT_CORE, &rlmt) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "setrlimit(RLIMIT_CORE, %O) failed",
                    ccf->rlimit_core);
    }
  }

  // geteuid()返回执行当前程序的用户id,这里的0表示是否为root用户
  if (geteuid() == 0) {
    // setgid()方法的作用是更改组的id
    if (setgid(ccf->group) == -1) {
      ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno,
                    "setgid(%d) failed", ccf->group);
      /* fatal */
      exit(2);
    }

    // initgroups()是更改附加组的id
    if (initgroups(ccf->username, ccf->group) == -1) {
      ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno,
                    "initgroups(%s, %d) failed",
                    ccf->username, ccf->group);
    }

    // 更改用户的id
    if (setuid(ccf->user) == -1) {
      ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno,
                    "setuid(%d) failed", ccf->user);
      /* fatal */
      exit(2);
    }
  }

  // 需要注意的是,对于cache manager和cache loader进程,这里的worker传入的是-1,
  // 表示这两个进程不需要设置亲核性
  if (worker >= 0) {
    // 获取当前worker的CPU亲核性
    cpu_affinity = ngx_get_cpu_affinity(worker);

    if (cpu_affinity) {
      // 设置worker的亲核心
      ngx_setaffinity(cpu_affinity, cycle->log);
    }
  }

#if (NGX_HAVE_PR_SET_DUMPABLE)

  /* allow coredump after setuid() in Linux 2.4.x */

  if (prctl(PR_SET_DUMPABLE, 1, 0, 0, 0) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "prctl(PR_SET_DUMPABLE) failed");
  }

#endif

  if (ccf->working_directory.len) {
    // chdir()的作用是将当前的工作目录更改为其参数所传入的路径
    if (chdir((char *) ccf->working_directory.data) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "chdir(\"%s\") failed", ccf->working_directory.data);
      /* fatal */
      exit(2);
    }
  }

  // 初始化空的set指令集合
  sigemptyset(&set);

  // ◆ SIG_BLOCK:将 set 参数指向信号集中的信号加入到信号掩码中。
  // ◆ SIG_UNBLOCK:将 set 参数指向的信号集中的信号从信号掩码中删除。
  // ◆ SIG_SETMASK:将 set 参数指向信号集设置为信号掩码。
  // 这里就是直接初始化要阻塞的信号集,默认为空集
  if (sigprocmask(SIG_SETMASK, &set, NULL) == -1) {
    ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                  "sigprocmask() failed");
  }

  tp = ngx_timeofday();
  srandom(((unsigned) ngx_pid << 16) ^ tp->sec ^ tp->msec);

  ls = cycle->listening.elts;
  for (i = 0; i < cycle->listening.nelts; i++) {
    ls[i].previous = NULL;
  }

  // 这里调用各个模块的init_process()方法进行进程模块的初始化
  for (i = 0; cycle->modules[i]; i++) {
    if (cycle->modules[i]->init_process) {
      if (cycle->modules[i]->init_process(cycle) == NGX_ERROR) {
        /* fatal */
        exit(2);
      }
    }
  }

  // 这里主要是关闭当前进程中各个模块的channel[0]管道句柄
  for (n = 0; n < ngx_last_process; n++) {

    if (ngx_processes[n].pid == -1) {
      continue;
    }

    if (n == ngx_process_slot) {
      continue;
    }

    if (ngx_processes[n].channel[1] == -1) {
      continue;
    }

    if (close(ngx_processes[n].channel[1]) == -1) {
      ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                    "close() channel failed");
    }
  }

  // 关闭当前进程的channel[0]管道句柄
  if (close(ngx_processes[ngx_process_slot].channel[0]) == -1) {
    ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno,
                  "close() channel failed");
  }

#if 0
  ngx_last_process = 0;
#endif

  // ngx_channel指向的是当前进程的channel[1]句柄,也即监听master进程发送消息的句柄。
  // 当前方法中,首先会为当前的句柄创建一个connection对象,并且将其封装为一个事件,然后将该事件添加到
  // 对应的事件模型队列中以监听当前句柄的事件,事件的处理逻辑则主要有这里的ngx_channel_handler()
  // 方法进行。这里的ngx_channel_handler的主要处理逻辑是,根据当前收到的消息设置当前进程的一些标志位,
  // 或者更新某些缓存数据,如此,在当前进行的事件循环中,通过不断检查这些标志位,
  // 从而实现在事件进程中处理真正的逻辑。因而这里的ngx_channel_handler的处理效率是非常高的
  if (ngx_add_channel_event(cycle, ngx_channel, NGX_READ_EVENT,
                            ngx_channel_handler) == NGX_ERROR) {
    exit(2);
  }
}

这里worker进程的初始化过程主要做了三件事:

  • 为worker进程设置优先级和提升打开文件的权限;
  • 设置worker进程的亲核性;
  • 关闭当前进程与master进程通信的管道数组中的channel[0],然后监听channel[1],以处理master进程的消息;

下面我们继续看worker进程是如何通过ngx_process_events_and_timers()方法不断处理事件的:

void ngx_process_events_and_timers(ngx_cycle_t *cycle) {
  ngx_uint_t flags;
  ngx_msec_t timer, delta;

  if (ngx_timer_resolution) {
    timer = NGX_TIMER_INFINITE;
    flags = 0;

  } else {
    // 这里会查找最小的定时任务来执行,这里的timer是一个整数,表示最近的一个事件的执行时间距离
    // 当前时刻的时间长度。如果没有可用的事件,则timer为-1,也即NGX_TIMER_INFINITE
    timer = ngx_event_find_timer();
    flags = NGX_UPDATE_TIME;
  }

  // 这里的ngx_use_accept_mutex是一个共享锁,用来锁定当前进程的,以保证其获取事件队列中的事件
  if (ngx_use_accept_mutex) {
    // 这里的ngx_accept_disabled表示当前worker进程是否满负载了,在配置文件中配置了
    // worker connections参数,指定了当前worker进程能够处理的最大连接数,只有在连接数达到
    // 最大连接数的7/8时就表示满负载了,此时ngx_accept_disabled>0
    // ngx_accept_disabled = ngx_cycle->connection_n / 8 - ngx_cycle->free_connection_n;
    // 对于满负载的worker进程,其不会处理当前连接
    if (ngx_accept_disabled > 0) {
      ngx_accept_disabled--;

    } else {
      // 尝试获取共享锁
      if (ngx_trylock_accept_mutex(cycle) == NGX_ERROR) {
        return;
      }

      // 这里如果获取到了锁,那么为flags设置NGX_POST_EVENTS标志,该标志的意思是,
      // 对于后续注册的事件的处理,会优先处理accept队列中的事件,当处理完成之后在处理存储其余事件的队列
      if (ngx_accept_mutex_held) {
        flags |= NGX_POST_EVENTS;

      } else {
        // 如果没有获取到锁,并且没有可用事件,或者可用事件的下次执行时间大于ngx_accept_mutex_delay
        // 指定的时间,则将下个事件的执行时间设定为ngx_accept_mutex_delay的值,也即最多等待
        // ngx_accept_mutex_delay就再次尝试获取锁
        if (timer == NGX_TIMER_INFINITE || timer > ngx_accept_mutex_delay) {
          timer = ngx_accept_mutex_delay;
        }
      }
    }
  }

  // 记录处理事件的开始时间
  delta = ngx_current_msec;

  // 这里开始处理事件,对于kqueue模型,其指向的是ngx_kqueue_process_events()方法,
  // 而对于epoll模型,其指向的是ngx_epoll_process_events()方法
  // 这个方法的主要作用是,在对应的事件模型中获取事件列表,然后将事件添加到ngx_posted_accept_events
  // 队列或者ngx_posted_events队列中
  (void) ngx_process_events(cycle, timer, flags);

  // 这里delta计算得到的是整个accept事件处理过程所消耗的时间
  delta = ngx_current_msec - delta;

  ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0,
                 "timer delta: %M", delta);

  // 这里开始处理accept事件,将其交由ngx_event_accept.c的ngx_event_accept()方法处理;
  ngx_event_process_posted(cycle, &ngx_posted_accept_events);

  // 开始释放锁
  if (ngx_accept_mutex_held) {
    ngx_shmtx_unlock(&ngx_accept_mutex);
  }

  if (delta) {
    ngx_event_expire_timers();
  }

  // 如果不需要在事件队列中进行处理,则直接处理该事件
  // 对于事件的处理,如果是accept事件,则将其交由ngx_event_accept.c的ngx_event_accept()方法处理;
  // 如果是读事件,则将其交由ngx_http_request.c的ngx_http_wait_request_handler()方法处理;
  // 对于处理完成的事件,最后会交由ngx_http_request.c的ngx_http_keepalive_handler()方法处理。

  // 这里开始处理除accept事件外的其他事件
  ngx_event_process_posted(cycle, &ngx_posted_events);
}

可以看到,ngx_process_events_and_timers()方法主要完成了如下几部分的工作:

  • 首先会尝试获取共享锁,并且检查当前进程是否已经超负荷,所谓的超负荷,就是当前正在处理的连接数超过了指定的最大连接数的7/8,如果超负荷了,则当前进程放弃当前请求的处理工作;
  • 然后通过调用ngx_process_events()方法获取客户端事件,这里的ngx_process_events()方法是一个多态的方法,对于配置文件中指定的不同的事件模型,其所指向的方法是不一样的,比如对于epoll模型,其所指向的方法是ngx_epoll_process_events(),而对于kqueue模型,其所指向的方法是ngx_kqueue_process_events()。通过调用这些抽象的方法,worker进程就可以获取到客户端发送过来的请求处理事件。需要注意的是,如果客户端发送过来的是请求连接事件,那么该事件就会被放到ngx_posted_accept_events队列中,而如果客户端发送过来的是读写事件,那么该事件就会被放到ngx_posted_events队列中;
  • 接着处理ngx_posted_accept_events队列中的连接建立请求;
  • 释放共享锁;
  • 处理ngx_posted_events队列中的读写事件。

如此,worker进程就完成了一次事件处理循环,在worker进程退出当前方法之后,其会检查当前nginx的状态,从而根据其状态判断是否需要退出worker进程,或者是进行下一次事件处理循环。

3. 小结

本文首先对master-worker进程的工作方式进行了简要的介绍,接着讲解了master和worker进程的具体工作内容,并且介绍了其相互之间的交互方式,最后对master和worker进程的实现原理进行了详细讲解。

发布于 2019-12-11

文章被以下专栏收录