Socket.io-使用多个节点

Socket.io-使用多个节点,socket.io,socket.io-redis,Socket.io,Socket.io Redis,因此,我正在研究跨多个进程运行socket.io 导游:给我留下了一些问题 它提到了使用配置nginx来实现socket.io进程之间的负载平衡,但也提到了使用Node.js中的内置集群模块 我应该为此使用nginx和Node.js中的集群模块吗 另外,如何判断负载平衡是否有效 我使用nginx选项对它进行了测试,其中两个socket.io进程使用redis适配器和集群模块运行 这是我在nginx配置中的配置: http { upstream io_nodes {

因此,我正在研究跨多个进程运行socket.io

导游:给我留下了一些问题

它提到了使用配置nginx来实现socket.io进程之间的负载平衡,但也提到了使用Node.js中的内置集群模块

我应该为此使用nginx和Node.js中的集群模块吗

另外,如何判断负载平衡是否有效

我使用nginx选项对它进行了测试,其中两个socket.io进程使用redis适配器和集群模块运行

这是我在nginx配置中的配置:

http {

        upstream io_nodes {
        ip_hash;
        server 127.0.0.1:6001;
        server 127.0.0.1:6002;
        }

        server {
        listen 3000;
        server_name example.com;
        location / {
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade";
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header Host $host;
        proxy_http_version 1.1;
        proxy_pass http://io_nodes;
        }
        }
这是我的socket.io代码的一个示例(大部分代码取自此处:):

var express=require('express'),
cluster=require('cluster'),
净=需要(“净”),
redis=require('redis'),
sio=require('socket.io'),
sio_redis=require('socket.io redis');
var端口=6001,
num_processs=require('os').cpu().length;
if(cluster.isMaster){
控制台日志(“is master 6001”);
//这存储了我们的员工。我们需要让他们能够参考
//它们基于源IP地址。这对于自动重启也很有用,
//比如说。
var工人=[];
//用于在索引“i”处生成工作程序的助手函数。
var spawn=函数(i){
workers[i]=cluster.fork();
//可选:退出时重新启动工作进程
工人[i]。在('exit',函数(代码,信号)上{
控制台日志(“重生工人”,i);
产卵(i);
});
};
//产卵工人。
对于(var i=0;i
虽然我正在本地测试,但连接工作得很好

我如何知道它是否正常工作?每次客户端连接时,它似乎都连接到端口
6001
上的socket.io进程

客户端连接代码连接到端口
3000

我应该为此使用nginx和Node.js中的集群模块吗


如果所有服务器进程都在一台计算机上,则可以在不使用NGINX的情况下使用集群模块

如果您使用的是多台服务器计算机,那么您需要一个类似NGINX的网络基础设施来实现不同服务器之间的负载平衡,因为node.js集群无法为您做到这一点

而且,您可以同时使用这两个服务器(多个服务器负载由NGINX之类的东西平衡,每个服务器在每个服务器上运行集群)。这里的关键是node.js集群只会在同一主机上的不同进程之间分散负载

另外,如何判断负载平衡是否有效


您可以让每个流程记录其正在处理的活动,并将流程ID添加为日志记录的一部分。如果您同时加载具有多个请求的服务器,您应该会看到每个流程正在处理一些负载。如果您进行实际的负载测试,那么当集群打开并工作时,您应该比不使用集群时获得更大的吞吐量。请记住,总吞吐量取决于瓶颈所在的位置。因此,如果您的服务器实际上绑定了数据库,并且所有集群进程都使用同一个数据库,那么集群node.js进程可能不会给您带来太多好处。另一方面,如果您的node.js进程是计算密集型的,并且您的服务器中有多个核心,那么集群可能会给您带来显著的好处。

为上述解决方案添加更多内容

另外,如何判断负载平衡是否有效

我正在使用节点调试
var express = require('express'),
    cluster = require('cluster'),
    net = require('net'),
    redis = require('redis'),
    sio = require('socket.io'),
    sio_redis = require('socket.io-redis');

var port = 6001,
    num_processes = require('os').cpus().length;

if (cluster.isMaster) {
    console.log('is master 6001');
    // This stores our workers. We need to keep them to be able to reference
    // them based on source IP address. It's also useful for auto-restart,
    // for example.
    var workers = [];

    // Helper function for spawning worker at index 'i'.
    var spawn = function(i) {
        workers[i] = cluster.fork();

        // Optional: Restart worker on exit
        workers[i].on('exit', function(code, signal) {
            console.log('respawning worker', i);
            spawn(i);
        });
    };

    // Spawn workers.
    for (var i = 0; i < num_processes; i++) {
        spawn(i);
    }

    // Helper function for getting a worker index based on IP address.
    // This is a hot path so it should be really fast. The way it works
    // is by converting the IP address to a number by removing non numeric
  // characters, then compressing it to the number of slots we have.
    //
    // Compared against "real" hashing (from the sticky-session code) and
    // "real" IP number conversion, this function is on par in terms of
    // worker index distribution only much faster.
    var worker_index = function(ip, len) {
        var s = '';
        for (var i = 0, _len = ip.length; i < _len; i++) {
            if (!isNaN(ip[i])) {
                s += ip[i];
            }
        }

        return Number(s) % len;
    };

    // Create the outside facing server listening on our port.
    var server = net.createServer({ pauseOnConnect: true }, function(connection) {
        // We received a connection and need to pass it to the appropriate
        // worker. Get the worker for this connection's source IP and pass
        // it the connection.
        var worker = workers[worker_index(connection.remoteAddress, num_processes)];
        worker.send('sticky-session:connection', connection);
    }).listen(port);
} else {
    // Note we don't use a port here because the master listens on it for us.
    var app = new express();

    // Here you might use middleware, attach routes, etc.

    // Don't expose our internal server to the outside.
    var server = app.listen(0, 'localhost'),
        io = sio(server);

    // Tell Socket.IO to use the redis adapter. By default, the redis
    // server is assumed to be on localhost:6379. You don't have to
    // specify them explicitly unless you want to change them.
    io.adapter(sio_redis({ host: 'localhost', port: 6379 }));

    // Here you might use Socket.IO middleware for authorization etc.
        io.on('connection', function(socket) {
        console.log('port 6001');
        console.log(socket.id);
    });
    // Listen to messages sent from the master. Ignore everything else.
    process.on('message', function(message, connection) {
        if (message !== 'sticky-session:connection') {
            return;
        }
        // Emulate a connection event on the server by emitting the
        // event with the connection the master sent us.
        server.emit('connection', connection);

        connection.resume();
    });
}