ProcessDist.c 12 KB
Newer Older
1
2
3
4
#include <stdio.h>
#include <stdlib.h>
#include <sys/stat.h>
#include <fcntl.h>
5
#include <unistd.h>
6
#include <string.h>
7
#include <mpi.h>
8
9
10
11
#include "ProcessDist.h"

//--------------PRIVATE DECLARATIONS---------------//

12
13
14
void node_dist(Spawn_data spawn_data, int **qty, int *used_nodes);
void spread_dist(Spawn_data spawn_data, int *used_nodes, int *procs);
void compact_dist(Spawn_data spawn_data, int *used_nodes, int *procs);
15

16
17
void generate_info_string(char *nodelist, int *procs_array, size_t nodes, MPI_Info *info);
void fill_str_hosts(char *nodelist, int *qty, size_t used_nodes, char **host_str);
18
//--------------------------------SLURM USAGE-------------------------------------//
19
#if USE_MAL_SLURM
20
21
22
23
24
25
26
27
#include <slurm/slurm.h>
void generate_info_string_slurm(char *nodelist, int *procs_array, size_t nodes, MPI_Info *info);
void fill_str_hosts_slurm(char *nodelist, int *qty, size_t used_nodes, char **hostfile_str);
//@deprecated functions
void generate_info_hostfile_slurm(char *nodelist, int *procs_array, int nodes, MPI_Info *info);
void fill_hostfile_slurm(char *nodelist, int ptr, int *qty, int used_nodes);
#endif
//--------------------------------SLURM USAGE-------------------------------------//
28

29
int write_str_node(char **hostfile_str, size_t len_og, size_t qty, char *node_name);
30
31
32
33
//@deprecated functions
int create_hostfile(char **file_name);
int write_hostfile_node(int ptr, int qty, char *node_name);

34
//--------------PUBLIC FUNCTIONS---------------//
35
36
37
38
39
40
41
42
43
44

/*
 * Configura la creacion de un nuevo grupo de procesos, reservando la memoria
 * para una llamada a MPI_Comm_spawn, obteniendo una distribucion fisica
 * para los procesos y creando un fichero hostfile.
 *
 * OUT parameters -->
 * info_spawn: Objeto MPI_Info en el que se indica el mappeado
 *   a usar al crear los procesos.
 */
45
void processes_dist(Spawn_data spawn_data, MPI_Info *info_spawn) {
46
47
  int used_nodes=0;
  int *procs_array;
48

49
  // GET NEW DISTRIBUTION 
50
51
52
  node_dist(spawn_data, &procs_array, &used_nodes);
#if USE_MAL_SLURM
  switch(spawn_data.mapping_fill_method) {
53
    case MALL_DIST_STRING:
54
      generate_info_string_slurm(mall->nodelist, procs_array, used_nodes, info_spawn);
55
56
      break;
    case MALL_DIST_HOSTFILE:
57
      generate_info_hostfile_slurm(mall->nodelist, procs_array, used_nodes, info_spawn);
58
59
60
      break;
  }
  free(procs_array);
61
#else
62
  generate_info_string(mall->nodelist, procs_array, used_nodes, info_spawn);
63
#endif
64
65
66
}


67
68
//--------------PRIVATE FUNCTIONS---------------//
//-----------------DISTRIBUTION-----------------//
69
70
71
72
73
/*
 * Obtiene la distribucion fisica del grupo de procesos a crear, devolviendo
 * cuantos nodos se van a utilizar y la cantidad de procesos que alojara cada
 * nodo.
 *
74
 * Se permiten dos tipos de distribuciones fisicas segun el valor de "spawn_dist":
75
76
77
78
79
80
 *
 *  COMM_PHY_NODES (1): Orientada a equilibrar el numero de procesos entre
 *                      todos los nodos disponibles.
 *  COMM_PHY_CPU   (2): Orientada a completar la capacidad de un nodo antes de
 *                      ocupar otro nodo.
 */
81
void node_dist(Spawn_data spawn_data, int **qty, int *used_nodes) {
82
83
  int i, *procs;

84
  procs = calloc(mall->num_nodes, sizeof(int)); // Numero de procesos por nodo
85
86

  /* GET NEW DISTRIBUTION  */
87
  switch(mall_conf->spawn_dist) {
88
    case MALL_DIST_SPREAD: // DIST NODES @deprecated
89
      spread_dist(spawn_data, used_nodes, procs);
90
91
      break;
    case MALL_DIST_COMPACT: // DIST CPUs
92
      compact_dist(spawn_data, used_nodes, procs);
93
94
95
96
      break;
  }

  //Copy results to output vector qty
97
  *qty = calloc(*used_nodes, sizeof(int)); // Numero de procesos por nodo
98
99
100
101
102
103
104
105
106
107
108
  for(i=0; i< *used_nodes; i++) {
    (*qty)[i] = procs[i];
  }
  free(procs);
}

/*
 * Distribucion basada en equilibrar el numero de procesos en cada nodo
 * para que todos los nodos tengan el mismo numero. Devuelve el total de
 * nodos utilizados y el numero de procesos a crear en cada nodo.
 *
109
 * FIXME Tener en cuenta procesos ya creados (already_created)
110
 */
111
void spread_dist(Spawn_data spawn_data, int *used_nodes, int *procs) {
112
113
  int i, tamBl, remainder;

114
  *used_nodes = mall->num_nodes;
115
116
  tamBl = spawn_data.target_qty / mall->num_nodes;
  remainder = spawn_data.target_qty % mall->num_nodes;
117
118
119
  for(i=0; i<remainder; i++) {
    procs[i] = tamBl + 1; 
  }
120
  for(i=remainder; i<mall->num_nodes; i++) {
121
122
123
124
125
126
127
128
129
130
131
132
    procs[i] = tamBl; 
  }
}

/*
 * Distribucion basada en llenar un nodo de procesos antes de pasar al
 * siguiente nodo. Devuelve el total de nodos utilizados y el numero 
 * de procesos a crear en cada nodo.
 *
 * Tiene en cuenta los procesos ya existentes para el mappeado de 
 * los procesos a crear.
 */
133
void compact_dist(Spawn_data spawn_data, int *used_nodes, int *procs) {
134
135
136
  int i, asigCores;
  int tamBl, remainder;

137
  tamBl = mall->num_cpus;
138
139
140
  asigCores = spawn_data.already_created;
  i = *used_nodes = spawn_data.already_created / tamBl;
  remainder = spawn_data.already_created % tamBl;
141
142
143
144
145

  //FIXME REFACTOR Que pasa si los nodos 1 y 2 tienen espacios libres
  //First nodes could already have existing procs
  //Start from the first with free spaces
  if (remainder) {
146
147
    procs[i] = tamBl - remainder;
    asigCores += procs[i];
148
    i = (i+1) % mall->num_nodes;
149
150
151
    (*used_nodes)++;
  }

152
  //Assign tamBl to each node
153
  while(asigCores+tamBl <= spawn_data.target_qty) {
154
155
    asigCores += tamBl;
    procs[i] += tamBl;
156
    i = (i+1) % mall->num_nodes;
157
158
159
160
    (*used_nodes)++;
  }

  //Last node could have less procs than tamBl
161
162
  if(asigCores < spawn_data.target_qty) { 
    procs[i] += spawn_data.target_qty - asigCores;
163
164
    (*used_nodes)++;
  }
165
  if(*used_nodes > mall->num_nodes) *used_nodes = mall->num_nodes;  //FIXME Si ocurre esto no es un error?
166
167
}

168
169
170
171
172
173
174
175
176

//--------------PRIVATE FUNCTIONS---------------//
//-------------------INFO SET-------------------//

/*
 * Crea y devuelve un objeto MPI_Info con un par hosts/mapping
 * en el que se indica el mappeado a utilizar en los nuevos
 * procesos.
 *
177
 *
178
 */
179
180
void generate_info_string(char *nodelist, int *procs_array, size_t nodes, MPI_Info *info){
  char *host_str;
181

182
  fill_str_hosts(nodelist, procs_array, nodes, &host_str);
183
184
  // SET MAPPING
  MPI_Info_create(info);
185
186
  MPI_Info_set(*info, "hosts", mall->nodelist);
  free(host_str);
187
188
}

189
190
191
192
/*
 * Crea y devuelve una cadena para ser utilizada por la llave "hosts"
 * al crear procesos e indicar donde tienen que ser creados.
 */
193
void fill_str_hosts(char *nodelist, int *qty, size_t used_nodes, char **host_str) {
194
  char *host, *aux, *token;
195
  size_t i=0,len=0;
196
197
198
199

  aux = (char *) malloc((strlen(nodelist)+1) * sizeof(char));
  strcpy(aux, nodelist);
  token = strtok(aux, ",");
200
201
202
203
  while (token != NULL && i < used_nodes) {
    host = strdup(token);
    if (qty[i] != 0) {
      len = write_str_node(host_str, len, qty[i], host);
204
205
206
    }
    i++;
    free(host);
207
    token = strtok(NULL, ",");
208
  }
209
  free(aux);
210
211
212
213
214
215
}

/*
 * Añade en una cadena "qty" entradas de "node_name".
 * Realiza la reserva de memoria y la realoja si es necesario.
 */
216
217
int write_str_node(char **hostfile_str, size_t len_og, size_t qty, char *node_name) {
  int err;
218
  char *ocurrence;
219
  size_t i, len, len_node;
220

221
222
  len_node = strlen(node_name) + 1; // Str length + ','
  len = qty * len_node; // Number of times the node is used
223
224

  if(len_og == 0) { // Memoria no reservada
225
    *hostfile_str = (char *) malloc((len+1) * sizeof(char));
226
  } else { // Cadena ya tiene datos
227
    *hostfile_str = (char *) realloc(*hostfile_str, (len_og + len + 1) * sizeof(char));
228
229
230
231
  }
  if(hostfile_str == NULL) return -1; // No ha sido posible alojar la memoria

  ocurrence = (char *) malloc((len_node+1) * sizeof(char));
232
  if(ocurrence == NULL) return -2; // No ha sido posible alojar la memoria
233
  err = snprintf(ocurrence, len_node+1, ",%s", node_name);
234
  if(err < 0) return -3; // No ha sido posible escribir sobre la variable auxiliar
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249

  i=0;
  if(len_og == 0) { // Si se inicializa, la primera es una copia
    i++;
    strcpy(*hostfile_str, node_name);
  }
  for(; i<qty; i++){ // Las siguientes se conctanenan
    strcat(*hostfile_str, ocurrence);
  }

  
  free(ocurrence);
  return len+len_og;
}

250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
//--------------------------------SLURM USAGE-------------------------------------//
#if USE_MAL_SLURM
/*
 * Crea y devuelve un objeto MPI_Info con un par hosts/mapping
 * en el que se indica el mappeado a utilizar en los nuevos
 * procesos.
 * Es necesario usar Slurm para usarlo.
 */
void generate_info_string_slurm(char *nodelist, int *procs_array, size_t nodes, MPI_Info *info){
  // CREATE AND SET STRING HOSTS
  char *hoststring;
  fill_str_hosts_slurm(nodelist, procs_array, nodes, &hoststring);
  MPI_Info_create(info);
  MPI_Info_set(*info, "hosts", hoststring);
  free(hoststring);
}


/*
 * Crea y devuelve una cadena para ser utilizada por la llave "hosts"
 * al crear procesos e indicar donde tienen que ser creados.
 */
void fill_str_hosts_slurm(char *nodelist, int *qty, size_t used_nodes, char **hostfile_str) {
  char *host;
  size_t i=0,len=0;
  hostlist_t hostlist;
  
  hostlist = slurm_hostlist_create(nodelist);
  while ( (host = slurm_hostlist_shift(hostlist)) && i < used_nodes) {
    if(qty[i] != 0) {
      len = write_str_node(hostfile_str, len, qty[i], host);
    }
    i++;
    free(host);
  }
  slurm_hostlist_destroy(hostlist);
}

288
289
290
291
292
293
294
295
296
297
298
//====================================================
//====================================================
//============DEPRECATED FUNCTIONS====================
//====================================================
//====================================================

/* FIXME Por revisar
 * @deprecated
 * Genera un fichero hostfile y lo anyade a un objeto
 * MPI_Info para ser utilizado.
 */
299
void generate_info_hostfile_slurm(char *nodelist, int *procs_array, int nodes, MPI_Info *info){
300
301
302
303
304
305
306
307
308
309
    char *hostfile;
    int ptr;

    // CREATE/UPDATE HOSTFILE 
    ptr = create_hostfile(&hostfile);
    MPI_Info_create(info);
    MPI_Info_set(*info, "hostfile", hostfile);
    free(hostfile);

    // SET NEW DISTRIBUTION 
310
    fill_hostfile_slurm(nodelist, ptr, procs_array, nodes);
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
    close(ptr);
}

/*
 * @deprecated
 * Crea un fichero que se utilizara como hostfile
 * para un nuevo grupo de procesos. 
 *
 * El nombre es devuelto en el argumento "file_name",
 * que tiene que ser un puntero vacio.
 *
 * Ademas se devuelve un descriptor de fichero para 
 * modificar el fichero.
 */
int create_hostfile(char **file_name) {
326
327
  int ptr, err;
  size_t len = 11; //FIXME Numero mágico
328
329

  *file_name = NULL;
330
  *file_name = malloc(len * sizeof(char));
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
  if(*file_name == NULL) return -1; // No ha sido posible alojar la memoria
  err = snprintf(*file_name, len, "hostfile.o");
  if(err < 0) return -2; // No ha sido posible obtener el nombre de fichero

  ptr = open(*file_name, O_WRONLY | O_CREAT | O_TRUNC, 0644);
  if(ptr < 0) return -3; // No ha sido posible crear el fichero

  return ptr; // Devolver puntero a fichero
}

/*
 * @deprecated
 * Rellena un fichero hostfile indicado por ptr con los nombres
 * de los nodos a utilizar indicados por "job_record" y la cantidad 
 * de procesos que alojara cada nodo indicado por "qty".
 */
347
void fill_hostfile_slurm(char *nodelist, int ptr, int *qty, int nodes) {
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
  int i=0;
  char *host;
  hostlist_t hostlist;
  
  hostlist = slurm_hostlist_create(nodelist);
  while ((host = slurm_hostlist_shift(hostlist)) && i < nodes) {
    write_hostfile_node(ptr, qty[i], host);
    i++;
    free(host);
  }
  slurm_hostlist_destroy(hostlist);
}

/*
 * @deprecated
 * Escribe en el fichero hostfile indicado por ptr una nueva linea.
 *
 * Esta linea indica el nombre de un nodo y la cantidad de procesos a
 * alojar en ese nodo.
 */
int write_hostfile_node(int ptr, int qty, char *node_name) {
369
  int err;
370
  char *line;
371
  size_t len, len_node, len_int;
372
373

  len_node = strlen(node_name);
374
375
  err = snprintf(NULL, 0, "%d", qty);
  if(err < 0) return -1;
376
  len_int = err;
377
378
379

  len = len_node + len_int + 3;
  line = malloc(len * sizeof(char));
380
  if(line == NULL) return -2; // No ha sido posible alojar la memoria
381
382
  err = snprintf(line, len, "%s:%d\n", node_name, qty);

383
  if(err < 0) return -3; // No ha sido posible escribir en el fichero
384
385
386
387
388
389

  write(ptr, line, len-1);
  free(line);

  return 0;
}
390
391
#endif
//--------------------------------SLURM USAGE-------------------------------------//