Support multiple AAA servers. Compiles but untested.
[trust_router.git] / tr / tr_tid.c
1 /*
2  * Copyright (c) 2016, JANET(UK)
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  *
9  * 1. Redistributions of source code must retain the above copyright
10  *    notice, this list of conditions and the following disclaimer.
11  *
12  * 2. Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in the
14  *    documentation and/or other materials provided with the distribution.
15  *
16  * 3. Neither the name of JANET(UK) nor the names of its contributors
17  *    may be used to endorse or promote products derived from this software
18  *    without specific prior written permission.
19  *
20  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
21  * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
22  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS
23  * FOR A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE
24  * COPYRIGHT HOLDER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT,
25  * INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES
26  * (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR
27  * SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
28  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT,
29  * STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
30  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED
31  * OF THE POSSIBILITY OF SUCH DAMAGE.
32  *
33  */
34
35 #include <talloc.h>
36
37 #include <trust_router/tr_dh.h>
38 #include <tid_internal.h>
39 #include <tr_filter.h>
40 #include <tr_comm.h>
41 #include <tr_idp.h>
42 #include <tr_rp.h>
43 #include <tr_event.h>
44 #include <tr_debug.h>
45 #include <gsscon.h>
46 #include <trp_internal.h>
47 #include <tr_config.h>
48 #include <tr_mq.h>
49 #include <tr_util.h>
50 #include <tr_tid.h>
51
52 /* Structure to hold data for the tid response callback */
53 typedef struct tr_resp_cookie {
54   int thread_id;
55   TID_RESP *resp;
56 } TR_RESP_COOKIE;
57
58 /* hold a tids instance and a config manager */
59 struct tr_tids_event_cookie {
60   TIDS_INSTANCE *tids;
61   TR_CFG_MGR *cfg_mgr;
62   TRPS_INSTANCE *trps;
63 };
64
65 static void tr_tidc_resp_handler(TIDC_INSTANCE *tidc, 
66                                  TID_REQ *req,
67                                  TID_RESP *resp, 
68                                  void *resp_cookie)
69 {
70   TR_RESP_COOKIE *cookie=talloc_get_type_abort(resp_cookie, TR_RESP_COOKIE);
71
72   tr_debug("tr_tidc_resp_handler: Response received! Realm = %s, Community = %s.",
73            resp->realm->buf,
74            resp->comm->buf);
75   
76   cookie->resp=tid_resp_dup(cookie, resp);
77 }
78
79 #if 0
80 /* Old one, obsolete. */
81
82 static void tr_tidc_resp_handler (TIDC_INSTANCE *tidc, 
83                                   TID_REQ *req,
84                                   TID_RESP *resp, 
85                                   void *resp_cookie)
86 {
87   tr_debug("tr_tidc_resp_handler: Response received (conn = %d)! Realm = %s, Community = %s.", ((TR_RESP_COOKIE *)resp_cookie)->orig_req->conn, resp->realm->buf, resp->comm->buf);
88   req->resp_rcvd = 1;
89
90   /* TBD -- handle concatentation of multiple responses to single req */
91   tids_send_response(((TR_RESP_COOKIE *)resp_cookie)->tids, 
92                      ((TR_RESP_COOKIE *)resp_cookie)->orig_req, 
93                      resp);
94   
95   return;
96 }
97 #endif /* 0 */
98
99
100 /* data for AAA req forwarding threads */
101 struct tr_tids_fwd_cookie {
102   int thread_id;
103   pthread_mutex_t mutex; /* lock on the mq (separate from the locking within the mq, see below) */
104   TR_MQ *mq; /* messages from thread to main process; set to NULL to disable response */
105   TR_NAME *aaa_hostname;
106   DH *dh_params;
107   TID_REQ *fwd_req; /* the req to duplicate */
108 };
109
110 static int tr_tids_fwd_cookie_destructor(void *obj)
111 {
112   struct tr_tids_fwd_cookie *c=talloc_get_type_abort(obj, struct tr_tids_fwd_cookie);
113   if (c->aaa_hostname!=NULL)
114     tr_free_name(c->aaa_hostname);
115   if (c->dh_params!=NULL)
116     tr_destroy_dh_params(c->dh_params);
117   return 0;
118 }
119
120 /* Block until we get the lock, returns 0 on success.
121  * The mutex is used to protect changes to the mq pointer in
122  * a thread's cookie. The master thread sets this to null to indicate
123  * that it has abandoned the thread and the message queue is no longer
124  * valid. This is unrelated to the locking in the message queue
125  * implementation itself. */
126 static int tr_tids_fwd_get_mutex(struct tr_tids_fwd_cookie *cookie)
127 {
128   if (cookie==NULL)
129     return -1;
130
131   return (pthread_mutex_lock(&(cookie->mutex)));
132 }
133
134 static int tr_tids_fwd_release_mutex(struct tr_tids_fwd_cookie *cookie)
135 {
136   if (cookie==NULL)
137     return -1;
138
139   return (pthread_mutex_unlock(&(cookie->mutex)));
140 }
141
142 /* values for messages */
143 #define TR_TID_MQMSG_SUCCESS "tid success"
144 #define TR_TID_MQMSG_FAILURE "tid failure"
145
146 /* Thread main for sending and receiving a request to a single AAA server */
147 static void *tr_tids_req_fwd_thread(void *arg)
148 {
149   TALLOC_CTX *tmp_ctx=talloc_new(NULL);
150   struct tr_tids_fwd_cookie *args=talloc_get_type_abort(arg, struct tr_tids_fwd_cookie);
151   TIDC_INSTANCE *tidc=tidc_create(tmp_ctx);
152   TR_MQ_MSG *msg=NULL;
153   TR_RESP_COOKIE *cookie=NULL;
154   int rc=0;
155   int success=0;
156
157   talloc_steal(tmp_ctx, args); /* take responsibility for the cookie */
158
159   /* Create a TID client instance */
160   if (tidc==NULL) {
161     tr_crit("tr_tids_req_fwd_thread: Unable to allocate TIDC instance.");
162     /*tids_send_err_response(tids, orig_req, "Memory allocation failure");*/
163     /* TODO: encode reason for failure */
164     success=0;
165     goto cleanup;
166   }
167
168   /* Set-up TID connection */
169   if (-1==(args->fwd_req->conn = tidc_open_connection(tidc, 
170                                                       args->aaa_hostname->buf,
171                                                       TID_PORT, /* TODO: make this configurable */
172                                                      &(args->fwd_req->gssctx)))) {
173     tr_notice("tr_tids_req_fwd_thread: Error in tidc_open_connection.");
174     /* tids_send_err_response(tids, orig_req, "Can't open connection to next hop TIDS"); */
175     /* TODO: encode reason for failure */
176     success=0;
177     goto cleanup;
178   };
179
180   /* Send a TID request. */
181   cookie=talloc(tmp_ctx, TR_RESP_COOKIE);
182   if (cookie==NULL) {
183     tr_notice("tr_tids_req_fwd_thread: unable to allocate response cookie.");
184     success=0;
185     goto cleanup;
186   }
187   cookie->thread_id=args->thread_id;
188   if (0 > (rc = tidc_fwd_request(tidc, args->fwd_req, &tr_tidc_resp_handler, (void *)cookie))) {
189     tr_notice("Error from tidc_fwd_request, rc = %d.", rc);
190     success=0;
191     goto cleanup;
192   }
193   /* cookie->resp should now contain our copy of the response */
194   success=1;
195
196 cleanup:
197   /* Notify parent thread of the response, if it's still listening. */
198   if (0!=tr_tids_fwd_get_mutex(args)) {
199     tr_notice("tr_tids_req_fwd_thread: Error acquiring mutex.");
200   } else if (NULL!=args->mq) {
201     /* mq is still valid, so we can queue our response */
202     if (success)
203       msg=tr_mq_msg_new(tmp_ctx, TR_TID_MQMSG_SUCCESS, TR_MQ_PRIO_NORMAL);
204     else
205       msg=tr_mq_msg_new(tmp_ctx, TR_TID_MQMSG_FAILURE, TR_MQ_PRIO_NORMAL);
206
207     if (msg==NULL)
208       tr_notice("tr_tids_req_fwd_thread: unable to allocate response msg.");
209
210     tr_mq_msg_set_payload(msg, (void *)cookie, NULL);
211     if (NULL!=cookie)
212       talloc_steal(msg, cookie); /* attach this to the msg so we can forget about it */
213     tr_mq_add(args->mq, msg);
214     talloc_steal(NULL, args); /* take out of our tmp_ctx; master thread now responsible for freeing */
215     if (0!=tr_tids_fwd_release_mutex(args))
216       tr_notice("tr_tids_req_fwd_thread: Error releasing mutex.");
217   }
218
219   talloc_free(tmp_ctx);
220   return NULL;
221 }
222
223 /* Merges r2 into r1 if they are compatible. */
224 static TID_RC tr_tids_merge_resps(TID_RESP *r1, TID_RESP *r2)
225 {
226   /* ensure these are compatible replies */
227   if ((r1->result!=TID_SUCCESS) || (r2->result!=TID_SUCCESS))
228     return TID_ERROR;
229
230   if ((0!=tr_name_cmp(r1->rp_realm, r2->rp_realm)) ||
231       (0!=tr_name_cmp(r1->realm, r2->realm)) ||
232       (0!=tr_name_cmp(r1->comm, r2->comm)))
233     return TID_ERROR;
234
235   tid_srvr_blk_add(r1->servers, tid_srvr_blk_dup(r1, r2->servers));
236   return TID_SUCCESS;
237 }
238
239 static int tr_tids_req_handler(TIDS_INSTANCE *tids,
240                                TID_REQ *orig_req, 
241                                TID_RESP *resp,
242                                void *cookie_in)
243 {
244   TALLOC_CTX *tmp_ctx=talloc_new(NULL);
245   TR_AAA_SERVER *aaa_servers=NULL, *this_aaa=NULL;
246   int n_aaa=0;
247   int idp_shared=0;
248   TR_AAA_SERVER_ITER *aaa_iter=NULL;
249   pthread_t aaa_thread[TR_TID_MAX_AAA_SERVERS];
250   struct tr_tids_fwd_cookie *aaa_cookie[TR_TID_MAX_AAA_SERVERS]={NULL};
251   TR_NAME *apc = NULL;
252   TID_REQ *fwd_req = NULL;
253   TR_COMM *cfg_comm = NULL;
254   TR_COMM *cfg_apc = NULL;
255   int oaction = TR_FILTER_ACTION_REJECT;
256   time_t expiration_interval=0;
257   struct tr_tids_event_cookie *cookie=talloc_get_type_abort(cookie_in, struct tr_tids_event_cookie);
258   TR_CFG_MGR *cfg_mgr=cookie->cfg_mgr;
259   TRPS_INSTANCE *trps=cookie->trps;
260   TRP_ROUTE *route=NULL;
261   TR_MQ *mq=NULL;
262   TR_MQ_MSG *msg=NULL;
263   unsigned int n_responses=0;
264   unsigned int n_failed=0;
265   struct timespec ts_abort={0};
266   unsigned int resp_frac_numer=cfg_mgr->active->internal->tid_resp_numer;
267   unsigned int resp_frac_denom=cfg_mgr->active->internal->tid_resp_denom;
268   TR_RESP_COOKIE *payload=NULL;
269   int ii=0;
270   int retval=-1;
271
272   if ((!tids) || (!orig_req) || (!resp)) {
273     tr_debug("tr_tids_req_handler: Bad parameters");
274     retval=-1;
275     goto cleanup;
276   }
277
278   tr_debug("tr_tids_req_handler: Request received (conn = %d)! Realm = %s, Comm = %s", orig_req->conn, 
279            orig_req->realm->buf, orig_req->comm->buf);
280   tids->req_count++;
281
282   /* Duplicate the request, so we can modify and forward it */
283   if (NULL == (fwd_req=tid_dup_req(tmp_ctx, orig_req))) {
284     tr_debug("tr_tids_req_handler: Unable to duplicate request.");
285     retval=-1;
286     goto cleanup;
287   }
288
289   if (NULL == (cfg_comm=tr_comm_table_find_comm(cfg_mgr->active->ctable, orig_req->comm))) {
290     tr_notice("tr_tids_req_hander: Request for unknown comm: %s.", orig_req->comm->buf);
291     tids_send_err_response(tids, orig_req, "Unknown community");
292     retval=-1;
293     goto cleanup;
294   }
295
296   /* Check that the rp_realm matches the filter for the GSS name that 
297    * was received. N.B. that tids->rp_gss was pointed at the correct
298    * rp_client when we received its GSS name. It is only set within
299    * the TIDS handler subprocess. */
300
301   if ((!tids->rp_gss) || 
302       (!tids->rp_gss->filter)) {
303     tr_notice("tr_tids_req_handler: No GSS name for incoming request.");
304     tids_send_err_response(tids, orig_req, "No GSS name for request");
305     retval=-1;
306     goto cleanup;
307   }
308
309   if ((TR_FILTER_NO_MATCH == tr_filter_process_rp_permitted(orig_req->rp_realm,
310                                                             tids->rp_gss->filter,
311                                                             orig_req->cons,
312                                                            &fwd_req->cons,
313                                                            &oaction)) ||
314       (TR_FILTER_ACTION_REJECT == oaction)) {
315     tr_notice("tr_tids_req_handler: RP realm (%s) does not match RP Realm filter for GSS name", orig_req->rp_realm->buf);
316     tids_send_err_response(tids, orig_req, "RP Realm filter error");
317     retval=-1;
318     goto cleanup;
319   }
320   /* Check that the rp_realm is a member of the community in the request */
321   if (NULL == tr_comm_find_rp(cfg_mgr->active->ctable, cfg_comm, orig_req->rp_realm)) {
322     tr_notice("tr_tids_req_handler: RP Realm (%s) not member of community (%s).", orig_req->rp_realm->buf, orig_req->comm->buf);
323     tids_send_err_response(tids, orig_req, "RP COI membership error");
324     retval=-1;
325     goto cleanup;
326   }
327
328   /* Map the comm in the request from a COI to an APC, if needed */
329   if (TR_COMM_COI == cfg_comm->type) {
330     if (orig_req->orig_coi!=NULL) {
331       tr_notice("tr_tids_req_handler: community %s is COI but COI to APC mapping already occurred. Dropping request.",
332                orig_req->comm->buf);
333       tids_send_err_response(tids, orig_req, "Second COI to APC mapping would result, permitted only once.");
334       retval=-1;
335       goto cleanup;
336     }
337     
338     tr_debug("tr_tids_req_handler: Community was a COI, switching.");
339     /* TBD -- In theory there can be more than one?  How would that work? */
340     if ((!cfg_comm->apcs) || (!cfg_comm->apcs->id)) {
341       tr_notice("No valid APC for COI %s.", orig_req->comm->buf);
342       tids_send_err_response(tids, orig_req, "No valid APC for community");
343       retval=-1;
344       goto cleanup;
345     }
346     apc = tr_dup_name(cfg_comm->apcs->id);
347
348     /* Check that the APC is configured */
349     if (NULL == (cfg_apc = tr_comm_table_find_comm(cfg_mgr->active->ctable, apc))) {
350       tr_notice("tr_tids_req_hander: Request for unknown comm: %s.", apc->buf);
351       tids_send_err_response(tids, orig_req, "Unknown APC");
352       retval=-1;
353       goto cleanup;
354     }
355
356     fwd_req->comm = apc;
357     fwd_req->orig_coi = orig_req->comm;
358
359     /* Check that rp_realm is a  member of this APC */
360     if (NULL == (tr_comm_find_rp(cfg_mgr->active->ctable, cfg_apc, orig_req->rp_realm))) {
361       tr_notice("tr_tids_req_hander: RP Realm (%s) not member of community (%s).", orig_req->rp_realm->buf, orig_req->comm->buf);
362       tids_send_err_response(tids, orig_req, "RP APC membership error");
363       retval=-1;
364       goto cleanup;
365     }
366   }
367
368   /* Look up the route for this community/realm. */
369   tr_debug("tr_tids_req_handler: looking up route.");
370   route=trps_get_selected_route(trps, orig_req->comm, orig_req->realm);
371   if (route==NULL) {
372     tr_notice("tr_tids_req_handler: no route table entry found for realm (%s) in community (%s).",
373               orig_req->realm->buf, orig_req->comm->buf);
374     tids_send_err_response(tids, orig_req, "Missing trust route error");
375     retval=-1;
376     goto cleanup;
377   }
378   tr_debug("tr_tids_req_handler: found route.");
379   if (trp_route_is_local(route)) {
380     tr_debug("tr_tids_req_handler: route is local.");
381     aaa_servers = tr_idp_aaa_server_lookup(cfg_mgr->active->ctable->idp_realms, 
382                                            orig_req->realm, 
383                                            orig_req->comm,
384                                           &idp_shared);
385   } else {
386     tr_debug("tr_tids_req_handler: route not local.");
387     aaa_servers = tr_aaa_server_new(tmp_ctx, trp_route_get_next_hop(route));
388     idp_shared=0;
389   }
390
391   /* Find the AAA server(s) for this request */
392   if (NULL == aaa_servers) {
393     tr_debug("tr_tids_req_handler: No AAA Servers for realm %s, defaulting.", orig_req->realm->buf);
394     if (NULL == (aaa_servers = tr_default_server_lookup (cfg_mgr->active->default_servers,
395                                                          orig_req->comm))) {
396       tr_notice("tr_tids_req_handler: No default AAA servers, discarded.");
397       tids_send_err_response(tids, orig_req, "No path to AAA Server(s) for realm");
398       retval=-1;
399       goto cleanup;
400     }
401     idp_shared=0;
402   } else {
403     /* if we aren't defaulting, check idp coi and apc membership */
404     if (NULL == (tr_comm_find_idp(cfg_mgr->active->ctable, cfg_comm, fwd_req->realm))) {
405       tr_notice("tr_tids_req_handler: IDP Realm (%s) not member of community (%s).", orig_req->realm->buf, orig_req->comm->buf);
406       tids_send_err_response(tids, orig_req, "IDP community membership error");
407       retval=-1;
408       goto cleanup;
409     }
410     if ( cfg_apc && (NULL == (tr_comm_find_idp(cfg_mgr->active->ctable, cfg_apc, fwd_req->realm)))) {
411       tr_notice("tr_tids_req_handler: IDP Realm (%s) not member of APC (%s).", orig_req->realm->buf, orig_req->comm->buf);
412       tids_send_err_response(tids, orig_req, "IDP APC membership error");
413       retval=-1;
414       goto cleanup;
415     }
416   }
417
418   /* send a TID request to the AAA server(s), and get the answer(s) */
419   if (cfg_apc)
420     expiration_interval = cfg_apc->expiration_interval;
421   else expiration_interval = cfg_comm->expiration_interval;
422   if (fwd_req->expiration_interval)
423     fwd_req->expiration_interval =  (expiration_interval < fwd_req->expiration_interval) ? expiration_interval : fwd_req->expiration_interval;
424   else fwd_req->expiration_interval = expiration_interval;
425
426   /* Set up message queue for replies from req forwarding threads */
427   mq=tr_mq_new(tmp_ctx);
428   if (mq==NULL) {
429     tr_notice("tr_tids_req_handler: unable to allocate message queue.");
430     retval=-1;
431     goto cleanup;
432   }
433
434   /* start threads */
435   aaa_iter=tr_aaa_server_iter_new(tmp_ctx);
436   if (aaa_iter==NULL) {
437     tr_notice("tr_tids_req_handler: unable to allocate AAA server iterator.");
438     retval=-1;
439     goto cleanup;
440   }
441   for (n_aaa=0, this_aaa=tr_aaa_server_iter_first(aaa_iter, aaa_servers);
442        this_aaa!=NULL;
443        n_aaa++, this_aaa=tr_aaa_server_iter_next(aaa_iter)) {
444     aaa_cookie[n_aaa]=talloc(tmp_ctx, struct tr_tids_fwd_cookie);
445     if (aaa_cookie[n_aaa]==NULL) {
446       tr_notice("tr_tids_req_handler: unable to allocate cookie for AAA thread %d.", n_aaa);
447       retval=-1;
448       goto cleanup;
449     }
450     talloc_set_destructor((void *)(aaa_cookie[n_aaa]), tr_tids_fwd_cookie_destructor);
451     /* fill in the cookie. To ensure the thread has valid data even if we exit first and
452      * abandon it, duplicate anything pointed to (except the mq). */
453     aaa_cookie[n_aaa]->thread_id=n_aaa;
454     if (0!=pthread_mutex_init(&(aaa_cookie[n_aaa]->mutex), NULL)) {
455       tr_notice("tr_tids_req_handler: unable to init mutex for AAA thread %d.", n_aaa);
456       retval=-1;
457       goto cleanup;
458     }
459     aaa_cookie[n_aaa]->mq=mq;
460     aaa_cookie[n_aaa]->aaa_hostname=tr_dup_name(this_aaa->hostname);
461     aaa_cookie[n_aaa]->dh_params=tr_dup_dh_params(orig_req->tidc_dh);
462     aaa_cookie[n_aaa]->fwd_req=tid_dup_req(aaa_cookie, fwd_req);
463
464     /* Take the cookie out of tmp_ctx before starting thread. If thread starts, it becomes
465      * responsible for freeing it until it queues a response. */
466     talloc_steal(NULL, aaa_cookie[n_aaa]);
467     if (0!=pthread_create(&(aaa_thread[n_aaa]), NULL, tr_tids_req_fwd_thread, aaa_cookie[n_aaa])) {
468       talloc_steal(tmp_ctx, aaa_cookie[n_aaa]); /* thread start failed; steal this back */
469       tr_notice("tr_tids_req_handler: unable to start AAA thread %d.", n_aaa);
470       retval=-1;
471       goto cleanup;
472     }
473   }
474  
475   /* determine expiration time */
476   if (0!=tr_mq_pop_timeout(cfg_mgr->active->internal->tid_req_timeout, &ts_abort)) {
477     tr_notice("tr_tids_req_handler: unable to read clock for timeout.");
478     retval=-1;
479     goto cleanup;
480   }
481
482   /* wait for responses */
483   n_responses=0;
484   n_failed=0;
485   while (((n_responses+n_failed)<n_aaa) &&
486          (NULL!=(msg=tr_mq_pop(mq, &ts_abort)))) {
487     /* process message */
488     if (0==strcmp(tr_mq_msg_get_message(msg), TR_TID_MQMSG_SUCCESS)) {
489       payload=talloc_get_type_abort(tr_mq_msg_get_payload(msg), TR_RESP_COOKIE);
490       if (payload->resp->result==TID_SUCCESS) {
491         tr_tids_merge_resps(resp, payload->resp);
492         n_responses++;
493       } else {
494         n_failed++;
495         tr_notice("tr_tids_req_handler: TID error received from AAA server %d: %.*s",
496                   payload->thread_id,
497                   payload->resp->err_msg->len,
498                   payload->resp->err_msg->buf);
499       }
500     } else if (0==strcmp(tr_mq_msg_get_message(msg), TR_TID_MQMSG_FAILURE)) {
501       /* failure */
502       payload=talloc_get_type_abort(tr_mq_msg_get_payload(msg), TR_RESP_COOKIE);
503       n_failed++;
504       tr_notice("tr_tids_req_handler: TID request for AAA server %d failed.",
505                 payload->thread_id);
506     } else {
507       /* unexpected message */
508       tr_err("tr_tids_req_handler: Unexpected message received. Aborting!");
509       retval=-1;
510       goto cleanup;
511     }
512     
513     /* Now free the cookie for this thread. Null it so we know we've dealt with it. */
514     talloc_free(aaa_cookie[payload->thread_id]);
515     aaa_cookie[payload->thread_id]=NULL;
516
517     tr_mq_msg_free(msg);
518
519     /* check whether we've received enough responses to exit */
520     if ((idp_shared && (n_responses>0)) ||
521         (resp_frac_denom*n_responses>=resp_frac_numer*n_aaa))
522       break;
523   }
524
525   /* Inform any remaining threads that we will no longer handle their responses. */
526   for (ii=0; ii<n_aaa; ii++) {
527     if (aaa_cookie[ii]!=NULL) {
528       if (0!=tr_tids_fwd_get_mutex(aaa_cookie[ii]))
529         tr_notice("tr_tids_req_handler: unable to get mutex for AAA thread %d.", ii);
530
531       aaa_cookie[ii]->mq=NULL; /* threads will not try to respond through a null mq */
532
533       if (0!=tr_tids_fwd_release_mutex(aaa_cookie[ii]))
534         tr_notice("tr_tids_req_handler: unable to release mutex for AAA thread %d.", ii);
535     }
536   }
537
538   /* Now all threads have either replied (and aaa_cookie[ii] is null) or have been told not to
539    * reply (by setting their mq pointer to null). However, some may have responded by placing
540    * a message on the mq after we last checked but before we set their mq pointer to null. These
541    * will not know that we gave up on them, so we must free their cookies for them. We can just
542    * go through any remaining messages on the mq to identify these threads. */
543   while (NULL!=(msg=tr_mq_pop(mq, NULL))) {
544     payload=(TR_RESP_COOKIE *)tr_mq_msg_get_payload(msg);
545     if (aaa_cookie[payload->thread_id]!=NULL)
546       talloc_free(aaa_cookie[payload->thread_id]);
547
548     tr_mq_msg_free(msg);
549   }
550
551   if (n_responses==0) {
552     tid_resp_set_result(resp, TID_ERROR);
553     tid_resp_set_err_msg(resp, tr_new_name("No successful response from AAA server(s)."));
554     tid_resp_set_error_path(resp, orig_req->path);
555   }
556
557   /* success! */
558   retval=0;
559     
560 cleanup:
561   talloc_free(tmp_ctx);
562   return retval;
563 }
564
565 static int tr_tids_gss_handler(gss_name_t client_name, TR_NAME *gss_name,
566                                void *data)
567 {
568   TR_RP_CLIENT *rp;
569   struct tr_tids_event_cookie *cookie=talloc_get_type_abort(data, struct tr_tids_event_cookie);
570   TIDS_INSTANCE *tids = cookie->tids;
571   TR_CFG_MGR *cfg_mgr = cookie->cfg_mgr;
572
573   if ((!client_name) || (!gss_name) || (!tids) || (!cfg_mgr)) {
574     tr_debug("tr_tidc_gss_handler: Bad parameters.");
575     return -1;
576   }
577
578   /* look up the RP client matching the GSS name */
579   if ((NULL == (rp = tr_rp_client_lookup(cfg_mgr->active->rp_clients, gss_name)))) {
580     tr_debug("tr_tids_gss_handler: Unknown GSS name %s", gss_name->buf);
581     return -1;
582   }
583
584   /* Store the rp client */
585   tids->rp_gss = rp;
586   tr_debug("Client's GSS Name: %s", gss_name->buf);
587
588   return 0;
589 }
590
591
592 /***** TIDS event handling *****/
593
594 /* called when a connection to the TIDS port is received */
595 static void tr_tids_event_cb(int listener, short event, void *arg)
596 {
597   TIDS_INSTANCE *tids = (TIDS_INSTANCE *)arg;
598
599   if (0==(event & EV_READ))
600     tr_debug("tr_tids_event_cb: unexpected event on TIDS socket (event=0x%X)", event);
601   else 
602     tids_accept(tids, listener);
603 }
604
605 /* Configure the tids instance and set up its event handler.
606  * Returns 0 on success, nonzero on failure. Fills in
607  * *tids_event (which should be allocated by caller). */
608 int tr_tids_event_init(struct event_base *base,
609                        TIDS_INSTANCE *tids,
610                        TR_CFG_MGR *cfg_mgr,
611                        TRPS_INSTANCE *trps,
612                        struct tr_socket_event *tids_ev)
613 {
614   TALLOC_CTX *tmp_ctx=talloc_new(NULL);
615   struct tr_tids_event_cookie *cookie=NULL;
616   int retval=0;
617   size_t ii=0;
618
619   if (tids_ev == NULL) {
620     tr_debug("tr_tids_event_init: Null tids_ev.");
621     retval=1;
622     goto cleanup;
623   }
624
625   /* Create the cookie for callbacks. We'll put it in the tids context, so it will
626    * be cleaned up when tids is freed by talloc_free. */
627   cookie=talloc(tmp_ctx, struct tr_tids_event_cookie);
628   if (cookie == NULL) {
629     tr_debug("tr_tids_event_init: Unable to allocate cookie.");
630     retval=1;
631     goto cleanup;
632   }
633   cookie->tids=tids;
634   cookie->cfg_mgr=cfg_mgr;
635   cookie->trps=trps;
636   talloc_steal(tids, cookie);
637
638   /* get a tids listener */
639   tids_ev->n_sock_fd=tids_get_listener(tids,
640                                        tr_tids_req_handler,
641                                        tr_tids_gss_handler,
642                                        cfg_mgr->active->internal->hostname,
643                                        cfg_mgr->active->internal->tids_port,
644                                        (void *)cookie,
645                                        tids_ev->sock_fd,
646                                        TR_MAX_SOCKETS);
647   if (tids_ev->n_sock_fd==0) {
648     tr_crit("Error opening TID server socket.");
649     retval=1;
650     goto cleanup;
651   }
652
653   /* Set up events */
654   for (ii=0; ii<tids_ev->n_sock_fd; ii++) {
655     tids_ev->ev[ii]=event_new(base,
656                               tids_ev->sock_fd[ii],
657                               EV_READ|EV_PERSIST,
658                               tr_tids_event_cb,
659                               (void *)tids);
660     event_add(tids_ev->ev[ii], NULL);
661   }
662
663 cleanup:
664   talloc_free(tmp_ctx);
665   return retval;
666 }